AI 伦理的8条原则 —— 来自澳洲政府的AI伦理框架

在设计、开发、集成或使用人工智能(AI)系统时,使用这8个原则可以:

  • 取得更好的成果
  • 降低负面影响的风险
  • 实践道德商业和善政的最高标准

这些是自愿的并有前瞻性的原则,旨在补充而不是替代现有的人工智能相关法规。

概览

  • 人类、社会和环境福祉:在整个生命周期中,人工智能系统应该造福于个人、社会和环境。
  • 以人为本的价值观:在整个生命周期中,人工智能系统应该尊重人权、多样性和个人的自主性。
  • 公平:在整个生命周期中,人工智能系统应具有包容性和可访问性,不应涉及或导致对个人、社区或群体的不公平歧视。
  • 隐私保护和安全:在整个生命周期中,人工智能系统应该尊重和维护隐私权和数据保护,确保数据的安全。
  • 可靠性和安全性:在整个生命周期中,人工智能系统应该按照预期目的可靠地运行。
  • 透明性和可解释性:应该有透明性和负责任的披露,以确保人们知道他们何时受到人工智能系统的重大影响,并能够发现人工智能系统何时与他们接触。
  • 可竞争性:当人工智能系统对个人、社区、团体或环境产生重大影响时,应该有一个及时的过程,允许人们对人工智能系统的使用或输出提出质疑。
  • 问责:负责人工智能系统生命周期不同阶段的人应该是可识别的,并对人工智能系统的结果负责,并且应该启用人工智能系统的人为监督。

以下为具体原则

人类、社会和环境福祉

在整个生命周期中,人工智能系统应该造福于个人、社会和环境。

这一原则旨在从一开始就明确指出,人工智能系统应该用于对个人、社会和环境有益的结果。人工智能系统的目标应该得到明确的识别和证明。应该鼓励有助于解决全球关切领域的人工智能系统,例如联合国的可持续发展目标。理想情况下,人工智能系统应该用于造福所有人,包括子孙后代。

为合法的内部商业目的而设计的人工智能系统,如提高效率,可以对个人、社会和环境福祉产生更广泛的影响。这些影响,无论是正面的还是负面的,都应该在人工智能系统的整个生命周期中加以考虑,包括组织外部的影响。

以人为本的价值观

在整个生命周期中,人工智能系统应该尊重人权、多样性和个人的自主性。

这一原则旨在确保人工智能系统符合人类价值观。机器应该为人类服务,而不是反过来。人工智能系统应通过尊重、保护和促进人权、实现多样性、尊重人的自由和个人自治以及保护环境,实现一个公平和民主的社会。

人权风险需要仔细考虑,因为人工智能系统同样可以促进和阻碍这些基本权利。在合理、必要和相称的情况下,可以干涉某些人权。

所有与人工智能系统交互的人都应该能够完全有效地控制自己。人工智能系统不应破坏民主进程,也不应采取威胁个人自治的行动,如欺骗、不公平的操纵、不合理的监视,以及未能在公开的目的和真正的行动之间保持一致。

人工智能系统的设计应能增强、补充和增强人类的认知、社会和文化技能。设计、开发、部署或操作人工智能系统的组织最好雇用来自不同背景、文化和学科的员工,以确保广泛的视角,并尽量减少遗漏仅由某些利益相关者注意到的重要考虑因素的风险。

公平

在整个生命周期中,人工智能系统应具有包容性和可访问性,不应涉及或导致对个人、社区或群体的不公平歧视。

这一原则旨在确保人工智能系统是公平的,并且它们能够在其整个生命周期中包含。人工智能系统应该以用户为中心,并以允许所有与之交互的人访问相关产品或服务的方式进行设计。这既包括与利益相关者进行适当的协商,利益相关者可能在人工智能系统的整个生命周期中受到影响,也包括确保人们获得公平的获取和治疗。

这一点尤其重要,因为人们担心人工智能可能会使社会不公正现象长期存在,并对弱势群体和代表性不足的群体产生不同的影响,包括但不限于与年龄、残疾、种族、性别、中间性地位、性别认同和性取向有关的群体。应采取措施确保AI做出的决定符合反歧视法。

隐私保护和安全

在整个生命周期中,人工智能系统应该尊重和维护隐私权和数据保护,并确保数据的安全。

这一原则旨在确保在使用人工智能系统时尊重隐私和数据保护。这包括确保对AI系统在其整个生命周期中使用和生成的所有数据进行适当的数据治理和管理。例如,在人工智能系统使用的地方,通过适当的数据匿名化来维护隐私。此外,数据之间的联系,以及人工智能系统从数据中得出的推论,应该是合理的,并以持续的方式进行评估。

这一原则还旨在确保适当的数据和AI系统安全措施到位。这包括识别潜在的安全漏洞,以及确保对抗性攻击的恢复能力。安全措施应考虑到人工智能系统的非预期应用和潜在的滥用风险,并采取适当的缓解措施。

可靠性和安全性

在其整个生命周期中,人工智能系统应按照其预期目的可靠地运行。

这一原则旨在确保人工智能系统在其整个生命周期中按照预期目的可靠地运行。这包括确保人工智能系统是可靠的,准确的和可复制的。

人工智能系统不应造成不合理的安全风险,应采取与潜在风险大小相称的安全措施。应对人工智能系统进行监控和测试,以确保其继续达到预期目的,任何已识别的问题都应酌情通过持续的风险管理加以解决。应明确和适当地确定责任,以确保人工智能系统的健壮性和安全性。

透明度和可解释性

应该有透明度和负责任的披露,以确保人们知道他们何时受到人工智能系统的重大影响,并能发现人工智能系统何时与他们接触。

这一原则旨在确保当人工智能系统对一个人的生活产生重大影响时,负责任地披露信息。“重大影响”阈值的定义将取决于相关人工智能系统的背景、影响和应用。

通过负责任的披露实现人工智能系统的透明度对每个利益相关者群体都很重要,原因如下[1]

  • 对于用户来说,系统在做什么,为什么
  • 对于创造者,包括那些承担人工智能、系统过程和输入数据的验证和认证的创造者
  • 对于部署和操作系统的人员来说,了解流程和输入数据
  • 对于事故调查员来说,如果发生事故
  • 在调查过程中对监管者来说
  • 对于那些处于法律程序中的人,告知证据和决策
  • 对于公众来说,要树立对科技的信心

应及时提供负责任的披露,并为人工智能系统的结果提供合理的理由。这包括帮助人们理解结果的信息,比如决策中使用的关键因素。

这一原则还旨在确保人们有能力发现人工智能系统何时与他们接触(无论影响程度如何),并能够获得有关人工智能系统的合理披露。

可竞争性

当人工智能系统对个人、社区、团体或环境产生重大影响时,应该有一个及时的过程,允许人们质疑人工智能系统的使用或输出。

这一原则旨在确保提供高效、可访问的机制,当人工智能系统对个人、社区、团体或环境产生重大影响时,允许人们质疑人工智能系统的使用或输出。“重大影响”阈值的定义将取决于相关人工智能系统的背景、影响和应用。

知道当事情出错时,补救伤害是可能的,这是确保公众对人工智能信任的关键。应特别注意易受伤害的人或群体。

为了使可竞争性有效,应该有足够的途径获取算法可用的信息和推论。在决定严重影响权利的情况下,应当有一个有效的监督制度,适当利用人的判断。

问责

负责人工智能系统生命周期不同阶段的人员应该是可识别的,并对人工智能系统的结果负责,并且应该启用人工智能系统的人为监督。

这一原则旨在确认相关组织和个人对其设计、开发、部署和运行的人工智能系统的结果负有责任。有关人工智能系统问责制的法律原则的应用仍在发展中。

应建立机制,确保人工智能系统及其成果的责任和问责制。这包括在设计、开发、部署和操作之前和之后。对决策负责的组织和个人应在必要时予以确认。他们必须为特定的人工智能系统或用例考虑适当的人为控制或监督水平。

对个人权利有重大影响的人工智能系统应接受外部审查,这包括为独立监督机构提供及时、准确和完整的信息。

脚注:

[1] Ethically Aligned Design report by IEEE.

发表评论

邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据