全文约700字,阅读时间预计3
分钟。美国时间6月7日,谷歌发布了其针对AI(人工智能)的新原则,其中明确表示将不会允许其人工智能产品用于军事武器,以及大多数可能危害人类的AI应用,并试图通过这个举措来平衡“不作恶”的口号和技术的广泛应用之间的矛盾。
谷歌最近因以名为“Project Maven”的合作伙伴的方式向美国国防部提供图像识别技术而受到内部员工的广泛批评。约有12名员工就因谷歌参与该项目而辞职。
谷歌的AI主管杰夫·迪安(Jeff Dean)甚至和3000多名员工一起签署了一份请愿书,敦促谷歌承诺绝不制造自动武器。
这是因为,人工智能系统的潜力可以比军事专家更准确地发现无人机,或者通过大量收集在线通信来识别不同政见者,所以谷歌的一举一动才会这么引起学术界伦理学家和谷歌员工的担忧。
但谷歌首席执行官桑达尔·皮查伊(SundarPichai)表示,“我们想要澄清的是,虽然我们不开发用于武器的AI,但我们将继续在其他领域与政府和军方合作,包括网络安全、培训、军事招募、退伍军人医疗、搜索和救援等。”
除申明AI技术不会用于军事武器外,谷歌的新原则还表示,它还将避免研发可能伤害或以伤害人类为主要目的的AI,以及“反国际公认规范的收集或使用信息进行监视的技术”。
皮查伊也表示,谷歌研发的AI应该坚持科学卓越的标准,对人类负责,测试后确认安全,以及避免强化偏见,特别是在种族、性别、性取向和政治或宗教信仰等方面的偏见。
皮查伊博客提到的7大原则:
1、有利于社会
2、避免产生或加强不公平的偏见
3、构建并测试AI安全性
4、对人类负责
5、符合隐私设计原则
6、坚持科学卓越的标准
7、开发符合上述原则的AI用例
谷歌不会追求的AI应用:
1、造成或可能造成总体伤害的技术;
2、主要目的或实施造成或直接导致人类受到伤害的武器或其他技术;
3、收集或使用信息进行监视的技术;
4、违反普遍接受的国际法和人权原则的AI技术。
-End-
文章推荐:
加入声学在线:[email protected]
閱讀更多 聲學在線 的文章