6.2 C
布鲁塞尔
周二,四月16,2024的
国际容忍、人为控制和放慢进步:采用什么...

宽容、人为控制和减缓进展:在俄罗斯采用人工智能代码会导致什么?

免责声明:文章中转载的信息和观点是陈述他们的信息和观点,由他们自己负责。 发表于 The European Times 并不自动意味着赞同观点,而是表达观点的权利。

免责声明翻译:本网站的所有文章均以英文发表。 翻译版本是通过称为神经翻译的自动化过程完成的。 如有疑问,请始终参考原始文章。 谢谢你的理解。

新闻台
新闻台https://europeantimes.news
The European Times 新闻旨在报道重要的新闻,以提高欧洲各地公民的意识。

越来越多的新闻出现在媒体上,关于人工智能如何开始自行做出决定,但却失去控制。 他通过受控数据对自己进行自我教育,但即便如此,他也无法阻止他向患者提供明显有害的建议、在互联网上粗鲁无礼或表达政治上不正确的观点。 专家表示,我们已经到了一个临界点——他们认为需要对算法进行监管。 因此,俄罗斯出现了人工智能的道德规范。 Hi-tech 求助于人工智能专家,以了解该文件是否可以摆脱算法的所有问题,以及是否会减缓技术发展的进程。

Iskander Bariev,副校长 - Innopolis 大学设计和研究活动系主任

我们与人工智能领域的领先企业合作,为该领域的工作人员制定道德准则和行为标准文件。 它为规范与 AI 的创建、实施和使用相关的关系提供了道德准则。 这是必要的,这样人工智能就不会做出违反普遍接受的规范和标准的决定。

有几个 AI 偏见的说明性示例。 例如,斯坦福大学和芝加哥大学的科学家已经表明,信用评分的人工智能会降低女性的评分,而一种分析亚马逊工作候选人的算法几乎总是拒绝女性申请技术工作。 IBM Watson 开始推荐危险药物,法国的一个聊天机器人为了减轻医生的负担,推荐病人自杀。 微软的聊天机器人在一天之内跨越了所有道德界限,站在纳粹德国一边。

代码暗示最终决定权在人,人工智能的自主性是有限的。 公司不能不解释人工智能的行为:开发人员必须谨慎处理安全系统的创建和实施,并确保人工智能算法没有偏见。

遵守守则的规定是自愿的。 如果签署方表明公认的游戏规则是使 AI 行业透明和安全的唯一途径,那么它的实施可能会无处不在。

Ramil Kuleev,Innopolis 大学人工智能研究所所长

AI 道德规范不是法律强制执行的,因为该文件没有禁止任何内容。 它基于开发人员对其行为的自觉责任。 这是一个普遍的协议,而不是一个禁止清单。 因此,我们不能说遵守已签署的规则会对公司的工作产生负面影响。

当算法提出违反道德标准的解决方案时,不检查人工智能是不可能的。 因此,AI道德规范规定,最终的决定是由人类做出的。

演员们试图考虑到方方面面,但很明显代码会被完善——技术正在发展,我们需要适应它们。 例如,新加坡在2019年和2020年发布了相同的代码。最新版本现在相关,但会对其进行更改。

第三意见首席执行官安娜·梅什切里亚科娃(Anna Meshcheryakova)

人工智能在人类交互中的识别和开发人员的责任应该对技术的应用产生积极影响。 在人工智能系统的行业监管中整合基于风险的方法似乎也是合理的:错误成本越高,监管越强。

在提供政府服务时,例如在医疗保健领域,负责服务质量的一方应控制算法。 应该清楚地描述强人工智能的标准。 例如,在我们的实践中,我们面临着对人工智能技术在医学图像分析中的能力限制缺乏了解。 尽管医疗决策支持系统是具有明确定义的功能和程序限制的数字助理,但即使是行业专家也经常期望算法具有超能力和完全自主权。

由于在使用 AI 系统时做出最终决定的权利属于个人,因此让他对使用 AI 算法的后果负责是合乎逻辑的。 但这不应该导致对人工智能系统的工作结果进行全面的双重检查,人工智能系统的创建是为了减少日常负担和人为错误的可能性。 因此,值得单独强调和详细说明人类在确定使用人工智能服务的边界和条件方面的责任问题,以便向系统运营商提供有关服务的准确和完整的信息。

由于“依赖数字助理的意见”,我们经常被问及人工智能在医疗技能水平可能下降方面的潜在危险。 代码的最高价值是人类认知能力和创造潜力的发展,这符合我们对医疗保健应用人工智能技术发展的原则和目标的立场。

确保用于技术开发的数据可用性的建议在代码中被视为极具争议性。 在理事会的一份类似报告中 欧洲,建议朝着最大的开放性迈进,据说需要向公众提供对审计程序代码和用于训练 AI 解决方案的数据的访问。 代码和标记数据集是受商业秘密制度保护的专有技术、独特的商业方法和解决方案的一部分。 发展是市场竞争和投资的结果。 而在这件事上,必须兼顾社会、国家和企业的利益。

Arthur Kamsky,数字产品设计师,Anybots 的联合创始人

代码描述了显而易见的事情,正如专家过去所做的那样。 与阿西莫夫的机器人规则有很多重叠:不伤害他人,机制必须服从人并为善工作,过程必须合乎道德。 我相信大多数公司已经遵守了这些规则。

我没有不同意的观点,但我对它们的实施有疑问。 例如,控制公司正在做的事情的问题。 以友好的方式,国家应该对此进行规范,但没有哪个国家有能力真正了解人工智能专家的发展。 这应该由从业者来完成,而不是来自外部的人,他们可以以“不喜欢-禁止”或“你的人工智能应该这样说话”的格式来评估项目。

该守则包含有关歧视的条款。 这是一个不明显的时刻,也是一个很大的猜测领域。 例如,在美国有一个故事,AI 警察更多地将黑人公民视为罪犯。 但是那些处理算法的人都明白,一切都与进入程序的数据有关。 例如,如果在一个城市,黑人抢劫商店的频率更高,系统会根据这些信息自动得出结论。 唯一的问题是这些数据是否反映了现实。 如果它们没有反映,则应补充更大的样本。 当然,人工智能应该以同样的方式对待每个人,但它只有关于人的数据,建立在他们的基础上并做出假设,而不是陈述。

主要是代码不妨碍行业发展。 没有人参与人工智能来歧视任何人。 我不希望公司因为人工智能伤害了人们而受到评判。 例如,Netflix 进行了一个实验,让白人看到有白人演员的电影封面,给黑人看黑人演员的电影封面,而这些演员实际上在这些电影中扮演。 在那之后,他们关于观看次数的指标增加了。 是否冒犯用户? 在我看来,没有。 他们的任务是让人们更多地与内容互动。 他们做到了这一点,并没有欺骗任何人。

热情的公司现在处于技术发展的最前沿,并将面临挑战。 相反,问题是如何处理这些事件中的每一个。 理想情况下,我们希望由在使用人工智能和开发方面具有实际经验的领先公司组成的委员会参与其中,而不是来自有条件的国家杜马的人。 随着时间的推移,事件的百分比将逐渐下降。

为了使代码起作用,政府必须比开发并花费数百万美元的公司更了解这些技术。 如果你在不了解技术的情况下干预它,那么国家将无法按照法律对公司进行正常的审计。 因此,一切都将取决于公司领导和普通员工的良心。

那么问题来了——利润和道德哪个更重要?

第一个 AI 代码显然不会是最后一个。 美国、欧洲等国家有各种形式的文件,但不可能一劳永逸地写下来。 这就是为什么应用人工智能的医学专家在训练的某个时间点修复算法,然后将文件提交给监管机构。 但技术本身建立在它每时每刻都在变得更好和更智能这一事实之上——这意味着它的法规也必须改变。

但这是俄罗斯第一次出现统一的人工智能规则,工程师不再需要回答他们是否对自己的开发负责,或者算法是否可以按照自己的、有时非常奇怪的方式开发的问题。

- 广告 -

更多来自作者

- 独家内容 -现货图片
- 广告 -
- 广告 -
- 广告 - 现货图片
- 广告 -

必读

最新文章

- 广告 -