欧盟发布人工智能伦理指南:AI系统要负责任且无偏见

  • 欧盟发布人工智能伦理指南:AI系统要负责任且无偏见已关闭评论
  • A+
所属分类:IT科技资讯

欧盟发布人工智能伦理指南:AI系统要负责任且无偏见
59golf.cn||对象名无效

  新浪科技讯,北京时间 4 月 19 日早间消息,据美国科技媒体 The Verge 报道,欧盟本周一发布了一系列关于发展人工智能(AI)伦理的新指南,作为企业和政府开发人工智能伦理应用的指导方针。

  这些规则不同于美国科幻小说作家艾萨克阿西莫夫(Isaac Asimov)的机器人三定律,没有直截了当地提供一个道德框架来帮助人类控制凶残的机器人。相反,当人工智能整合至医疗、教育和消费技术等领域时,它们可澄清一些影响社会的模糊而分散的问题。

  因此,举例来说,如果一套 AI 系统在未来某个时候诊断出你患有癌症,欧盟的指导方针将确保个人网站模板下列事情的发生:软件不会因种族或性别而产生偏见;不会推翻人类医生的反对意见;患者有权选择听取 AI 诊断意见。

  这些指导方针有助于阻止人工智能胡作非为,并保证在行政和官僚主义的层面上,不会制造出阿西莫夫式的谋杀谜团。

  为了帮助实现这一目标,欧盟召集了 52 名ping 命令专家组成的小组,提出了他们认为未来 AI 系统应该满足的七项要求。具体如下:

  - 人类作用和监督:人工智能不应该践踏人类的自主性。人们不应该被 AI 系统操纵或胁迫,而且,人类应该能够干预或监督软件做出的每一个决定。

  -技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,而且,应该是相当可靠的。

  -隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

  -透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应由人类理解和跟踪。换句话说,操作员应该能够解释 AI 系统所做的决定。

  -多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样地,系统不应该在这些方面存在偏见。

  -环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并促进积极的社会变革。

  -问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

  人们会注意到上述一些需求非常抽象,很难从客观的角度进行评估。(例如,积极的社会变革的定义因人而异,因国而异),但其他定义内容更为直截了当,可以通过政府监督进行检验。例如,用于训练政府 AI 系统的数据实行共享,可能是对抗偏见性算法的好方法。

  这些指导方针不具有法律约束力,但它们可能对欧盟未来起草的所有法律造成影响。欧盟一再表示,希望成为 AI 伦理领域的领导者,并通过《通用数据保护条例》(GDPR)表明,愿意制定影响深远的法律,以保护公众的数字权利。

  不过在一定程度上,欧盟是由于环境因素而迫不得已充当这一角色的。在投资和前沿研究方面,欧盟无法与美国和中国AI 领域的世界领先者一争高下,因此,它选择了伦理作为塑造技术未来的最佳选择。

  作为这项工作的一部分,本周一的报告包括了一份所谓的值得信赖的 AI 评估列表,以便帮助专家找出 AI 软件中存在的潜在弱点或危险。此列表中的问题包括是否对系统在意外情况和环境中的行为进行了验证?和是否对数据集内的数据类型和范围进行了评估?

  这些评估清单只是初步措施,欧盟将在未来几年收集企业反馈,并在 2020 年期限内提供一份最终报告。

  范尼希德韦吉(Fanny Hidvegi)现在是数字版权集团 Access Now 的政策经理,也是参与撰写这份指南的专家之一,他说评估列表是报告中最重要的部分。希德韦吉向 The Verge 透露,它提供了一个实用的、前瞻性的视角,来缓解人工智能的潜在危害。

  在我们看来,欧盟有能力、有责任站在这项工作的最前线,希德韦吉说,但我们认为,欧盟不应停留在伦理指南水平而应该上升到法律层面。

  另有一些人怀疑,欧盟试图通过影响巨大的伦理研究来规范全球人工智能的发展方式。

  智库机构数据创新中心(Center for Data Innovation)的高级政策分析师艾琳奇沃特(Eline Chivot)在接受 The Verge 采访时说:通过为 AI 伦理创建黄金标准来确认欧盟在全球 AI 发展中的地位,我们对正在采取的这种方法持怀疑态度。要成为 AI 伦理的领导者,首先你必须在人工智能领域遥遥领先。(斯眉)

avatar