06.14 谷歌發佈AI七大原則:不開發武器AI,但會繼續與政府及軍隊合作

日前,谷歌CEO桑達爾·皮查伊(Sundar Pichai)發文詳述了谷歌在人工智能(AI)上的七大原則、四條底線,為AI技術的開發和使用提供指導。

谷歌發佈AI七大原則:不開發武器AI,但會繼續與政府及軍隊合作

這份文件發佈的背景是,谷歌被曝在去年秋天秘密參與美國國防部Project Maven,導致公司內部數千名員工與管理層發生衝突。這些員工認為,該項目有違谷歌在成立之初所立下的“不作惡”原則,但公司高層則認為這有助於谷歌與五角大樓的進一步合作。

最終,谷歌宣佈Project Maven合同將於2019年到期後不再續簽。

谷歌CEO皮查伊在文中表示,AI開發與使用的方式將對未來社會產生深遠的影響。作為AI領域的領導者,谷歌不會開發武器等傷人或為傷人提供直接便利的技術;或是違反國際公認的規範,以監控為目的收集或使用信息的技術。

但同時皮查伊也指出,谷歌雖不會開發用於武器的AI,但將繼續在其他諸多領域與政府和軍隊展開合作,其中包括網絡安全、訓練、徵兵、退伍軍人醫療以及搜救。這些合作十分重要,谷歌也將積極尋求更多方式,增進這些機構的關鍵性工作,並保障軍民安全。

谷歌發佈AI七大原則:不開發武器AI,但會繼續與政府及軍隊合作

究其核心,人工智能(AI)就是個計算機程序,它會學習,也能自我調整。它解決不了所有的問題,但改善生活的潛力不容小覷。在谷歌,我們利用AI讓產品更加得心應手——從沒有垃圾郵件、易於寫信的電子信箱,到可以用自然方式對話的數字助手,到挑出趣味內容供你欣賞的照片應用。

除了我們的產品,我們還使用AI幫助人們解決迫在眉睫的問題。兩位高中生正在構建AI支持的傳感器,用於預測野火風險。農場主正用它監測牛羊群的健康狀況。醫生開始使用AI幫助診斷癌症,預防失明。正是因為這些顯而易見的好處,谷歌才大力投資AI研發,並通過我們的工具以及代碼開源,使AI技術得以普及。

我們明白,這種技術有多強大,其使用所引發的擔憂就有多麼深切。AI開發與使用的方式將對未來社會產生深遠的影響。作為AI領域的一個領導者,我們深知責任重大,不得不慎。在此,我們宣佈指導日後工作的七大原則。它們不是理論概念,而是具體的標準,將會積極指導我們的研究與產品開發,並影響我們的商業決策。

我們知道,這個領域處在動態演變之中,我們也將在工作中秉持謙恭的態度,投身內部與外部互動,並不斷學習,積極調整方式。

AI應用的目標

我們將參照以下目標,對AI應用作出評估。我們認為,AI應該:

1、造福社會

新技術的影響範圍日益遍及整個社會。AI的進步將在各個領域帶來革命性的影響,包括醫療、安保、能源、交通、製造與娛樂。在考慮AI技術的潛在發展與使用時,我們將把廣泛的社會與經濟因素納入考量。只有相信整體可能收益遠遠超過可預見的風險與不利因素時,我們才會繼續。

就理解大規模內容的意義而言,AI增強了我們在這方面的能力。我們將使用AI,努力使高質量的準確信息唾手可得,同時,繼續在我們運營業務的國家,尊重當地的文化、社會與法律規範。我們也將繼續深思熟慮地作出評估,決定何時將技術免費開放。

2、避免製造或加強不公正的偏見

AI算法和數據集可以折射、強化或削弱不公正的偏見。我們承認,公正與不公正的偏見很難區分,而且因文化或社會而異。我們將試圖避免對人造成的不公正的影響,尤其是涉及到敏感特徵時,比如種族、少數族裔、性別、國籍、收入、性取向、能力,以及政治或宗教信仰。

3、以安全為目的構建與測試AI

我們將繼續開發並實行嚴格的安全保障實踐,避免意想不到的結果,進而招致損害風險。我們將設計我們的AI系統,使之具備適當的謹慎,並試圖遵循AI研究中的最佳實踐來進行AI開發。在適當情況下,我們將在受限環境下測試AI技術,並在開發完成後繼續監測其運行。

4、對人負責

我們設計的AI系統將提供適當的反饋時機、中肯的解釋,以及吸引力。我們的AI技術將受到適當的人類指導與控制。

5、納入隱私設計原則

我們將在AI技術的開發與使用中,納入我們的隱私原則。我們將為通知與許可提供契機,鼓勵隱私保護型設計,並圍繞數據使用,提供適當的透明度和控制。

6、秉持追求卓越的嚴格科學標準

技術創新植根於科學方法,以及對開放式探究、學術嚴謹性、誠信和協作的承諾。AI工具有望解鎖新的科研領域,以及生物、化學、醫藥和環境科學等重大領域的知識。在致力於推進AI開發的過程中,我們嚮往追求卓越的嚴格科學標準。

我們將與一系列的利益相關方合作,提供一種經過深思熟慮的範式,從具有科學嚴謹性的、跨領域的方式中汲取靈感。我們將通過發佈教育資料、最佳實踐,以及促使更多人開發有益AI應用的研究,負責任地分享AI知識。

谷歌發佈AI七大原則:不開發武器AI,但會繼續與政府及軍隊合作

7、向遵循這些原則的用途開放

很多技術都存在多種用途。我們將盡力限制有潛在危害或可能被濫用的應用。在開發與部署AI技術的同時,我們將參照以下因素,評估可能的使用:

主要目的與用途:一項技術與應用的主要目的和可能用途,包括該解決方案跟有害用途聯繫有多密切,或是能否被改成有害用途。

本質與獨特性:推出的技術是獨一無二的,還是通用的。

規模:這種技術的使用會不會產生重大影響

谷歌參與的本質:我們是在提供通用工具,還是為顧客整合工具,抑或開發定製解決方案

我們不會追逐的AI應用

除上述目標外,我們也不會設計或部署以下應用領域的AI:

1、導致或有可能會導致全面傷害的技術。當存在顯而易見的風險時,我們只有在相信裨益遠大於風險時,才會繼續,並採取適當的安全限制措施

2、武器等傷人或為傷人提供直接便利的技術

3、違反國際公認的規範,以監控為目的收集或使用信息的技術

4、目的與廣泛接受的國際法與人權原則背道而馳的技術

我們要明確的是,雖不會開發用於武器的AI,但我們將繼續在其他諸多領域與政府和軍隊展開合作,其中包括網絡安全、訓練、徵兵、退伍軍人醫療以及搜救。這些合作十分重要,我們也將積極尋求更多方式,增進這些機構的關鍵性工作,並保障軍民安全。

長期視野下的AI

雖然這是我們選擇的對待AI的方式,但我們明白,這場對話中,還可以有其他很多不同的聲音。隨著AI技術的進步,我們將與各行各業的利益相關者合作,提供一種經過深思熟慮的範式,從具有科學嚴謹性的、跨領域的方式中汲取靈感。我們將繼續分享所學,用於改進AI技術與實踐。

我們相信,這些原則為我們公司和未來AI發展奠定了正確的基礎。這種態度與2004年穀歌第一封《創始人的信》中列出的價值觀一致。在那封信中,我們清楚地表明希望著眼長遠,即便這意味著捨棄短期利益。這是我們當時的說法,也是如今依然秉持的信念。

翻譯:雁行

校對:Lily

造就:劇院式的線下演講平臺,發現最有創造力的思想

點擊藍字“瞭解更多”,獲取更多「造就」精彩內容


分享到:


相關文章: