美国防创新委员会发布人工智能应用道德标准

导读

10月31日,美国国防创新委员会发布研究报告向美国防部提出了人工智能应用的原则,为在战斗和非战斗中应用人工智能技术的道德伦理原则进行持续讨论提供理论依据。该报告是委员会进行了为期15个月讨论的研究结果,包括收集公众评论,举行听证会以及圆桌讨论等,并在机密环境中进行了测试。此外,国防部还成立了一个国防部原则与道德工作组,以协助国防创新委员会的工作。

这五项原则分别是:

美国防创新委员会发布人工智能应用道德标准

1. 负责。人类应进行适当的判断,对人工智能系统的开发、部署、应用和结果负责。

2. 平衡。国防部应具备相应措施,在军事人工智能系统的开发和部署中,避免对其施加不经意间造成人员伤害的倾向性。

3. 可追溯。国防部所采用的人工智能技术应足够先进,以使技术专家对技术开发过程和操作方法有明晰的理解,包括透明性和审核方法、数据源以及设计过程、文档等。

4. 可靠。人工智能系统应具有明确定义的应用范围,并且应在该应用范围内,测试和确保此类系统在整个生命周期内的安全性、保密性和鲁棒性。

5. 可控。国防部AI系统的设计应实现其预期功能,同时具有检测和避免意外伤害或破坏的能力,并能对显示出意外升级或其他行为的已部署系统,人为或自动进行脱离或停用等操作。这一原则强调了在造成意外伤害或其他不良行为的情况下,必须使人类拥有停用系统的方法的重要性。

关于国防创新委员会

美国国防创新委员会是一个独立的联邦委员会,由学术界和工业界成员组成,为国防部领导层提供政策建议。但该委员会提出的建议不会自动被国防部采纳。

来源 :美国《C4ISR与网络》/图片来自互联网

军事科学院军事科学信息研究中心 刘伟雪

如需转载请注明出处:“国防科技要闻”(ID:CDSTIC)

关注全球国防科技发展重大动向 分享国防科技信息优质产品和资源

军事科学院军事科学信息研究中心微信平台


分享到:


相關文章: