全文約700字,閱讀時間預計3
分鐘。美國時間6月7日,谷歌發佈了其針對AI(人工智能)的新原則,其中明確表示將不會允許其人工智能產品用於軍事武器,以及大多數可能危害人類的AI應用,並試圖通過這個舉措來平衡“不作惡”的口號和技術的廣泛應用之間的矛盾。
谷歌最近因以名為“Project Maven”的合作伙伴的方式向美國國防部提供圖像識別技術而受到內部員工的廣泛批評。約有12名員工就因谷歌參與該項目而辭職。
谷歌的AI主管傑夫·迪安(Jeff Dean)甚至和3000多名員工一起簽署了一份請願書,敦促谷歌承諾絕不製造自動武器。
這是因為,人工智能系統的潛力可以比軍事專家更準確地發現無人機,或者通過大量收集在線通信來識別不同政見者,所以谷歌的一舉一動才會這麼引起學術界倫理學家和谷歌員工的擔憂。
但谷歌首席執行官桑達爾·皮查伊(SundarPichai)表示,“我們想要澄清的是,雖然我們不開發用於武器的AI,但我們將繼續在其他領域與政府和軍方合作,包括網絡安全、培訓、軍事招募、退伍軍人醫療、搜索和救援等。”
除申明AI技術不會用於軍事武器外,谷歌的新原則還表示,它還將避免研發可能傷害或以傷害人類為主要目的的AI,以及“反國際公認規範的收集或使用信息進行監視的技術”。
皮查伊也表示,谷歌研發的AI應該堅持科學卓越的標準,對人類負責,測試後確認安全,以及避免強化偏見,特別是在種族、性別、性取向和政治或宗教信仰等方面的偏見。
皮查伊博客提到的7大原則:
1、有利於社會
2、避免產生或加強不公平的偏見
3、構建並測試AI安全性
4、對人類負責
5、符合隱私設計原則
6、堅持科學卓越的標準
7、開發符合上述原則的AI用例
谷歌不會追求的AI應用:
1、造成或可能造成總體傷害的技術;
2、主要目的或實施造成或直接導致人類受到傷害的武器或其他技術;
3、收集或使用信息進行監視的技術;
4、違反普遍接受的國際法和人權原則的AI技術。
-End-
文章推薦:
加入聲學在線:[email protected]
閱讀更多 聲學在線 的文章