人工智慧應用軍事會不會出現變異,專家呼籲抵制

著名的科技領袖和科學家簽署了公開信請求,要求禁止使用人工智能技術驅動的致命自主武器。但最近一群人工智能研究人員利用抵制威脅來阻止大學開發所謂的殺手機器人技術,從而更進一步。

這一切始於2月下旬,當時 韓國時報的 一篇文章報道了一家韓國領先的國防公司與一所公立研究型大學合作開發的無人監督的軍用人工智能武器。到3月為止,來自30個國家的50多位人工智能研究人員簽署了一封致韓國大學人工智能武器項目KAIST 的 公開信,聲明簽署人會抵制與大學的任何研究合作。

加拿大蒙特利爾大學計算機科學教授,深度學習研究的先驅Yoshua Bengio說:“開發人工智能背後的科學知識的學者非常重要,這種科學被用於人類的利益。” “在這種情況下,這涉及到一所大學,也是一個主要的大學,正在為可能開發的'殺手機器人'達成交易。'”

“ 韓國時報”的文章描述了KAIST(前韓國科學技術院)與國防公司Hanhwa Systems之間的聯合項目,其目標是開發“適用於軍事武器的人工智能(AI)技術”,其中可能包括“人工智能導彈”,“裝備有AI的無人潛艇 ”和“ 武裝直升機”。該文還將這種自主武器定義為能夠在沒有人為控制的情況下尋找和消滅目標。

美國,中國和俄羅斯等主要軍事力量一直在開發可能導致致命自主武器的AI技術。一些現有的自主武器 已經可以自動跟蹤和射擊目標,包括哨槍炮塔或用於擊落來襲導彈或飛機的武器。然而,軍隊以防禦能力使用這些武器,並且通常讓一個人“在循環中”作出關於釋放這些武器以對抗目標的最終決定。

許多人工智能和機器人技術研究人員希望阻止殺人機器人或無人駕駛飛機的廣泛開發,這些機器人或無人機在不需要人員下達命令的情況下開槍殺人。非政府組織還通過恰當命名的“停止殺手機器人運動”組織禁止致命的自主武器。即使是聯合國一直舉行一系列年度會議來討論致命的自主武器。

由麻省理工學院物理學家Max Tegmark和生命未來研究所牽頭的2015年運動呼籲“禁止有意義的人類控制以外的冒犯性自主武器”。2015年公開信得到了科學和技術專業人士的支持,如SpaceX和特斯拉創始人伊隆馬斯克,蘋果聯合創始人史蒂夫沃茲尼亞克和後期物理學家史蒂芬霍金。後續的公開信和活動也對此進行了跟蹤。

著名的科技領袖和科學家簽署了公開信請求,要求禁止使用人工智能技術驅動的致命自主武器。但最近一群人工智能研究人員利用抵制威脅來阻止大學開發所謂的殺手機器人技術,從而更進一步。

這一切始於2月下旬,當時 韓國時報的 一篇文章報道了一家韓國領先的國防公司與一所公立研究型大學合作開發的無人監督的軍用人工智能武器。到3月為止,來自30個國家的50多位人工智能研究人員簽署了一封致韓國大學人工智能武器項目KAIST 的 公開信,聲明簽署人會抵制與大學的任何研究合作。

加拿大蒙特利爾大學計算機科學教授,深度學習研究的先驅Yoshua Bengio說:“開發人工智能背後的科學知識的學者非常重要,這種科學被用於人類的利益。” “在這種情況下,這涉及到一所大學,也是一個主要的大學,正在為可能開發的'殺手機器人'達成交易。'”

“ 韓國時報”的文章描述了KAIST(前韓國科學技術院)與國防公司Hanhwa Systems之間的聯合項目,其目標是開發“適用於軍事武器的人工智能(AI)技術”,其中可能包括“人工智能導彈”,“裝備有AI的無人潛艇 ”和“ 武裝直升機”。該文還將這種自主武器定義為能夠在沒有人為控制的情況下尋找和消滅目標。

美國,中國和俄羅斯等主要軍事力量一直在開發可能導致致命自主武器的AI技術。一些現有的自主武器 已經可以自動跟蹤和射擊目標,包括哨槍炮塔或用於擊落來襲導彈或飛機的武器。然而,軍隊以防禦能力使用這些武器,並且通常讓一個人“在循環中”作出關於釋放這些武器以對抗目標的最終決定。

許多人工智能和機器人技術研究人員希望阻止殺人機器人或無人駕駛飛機的廣泛開發,這些機器人或無人機在不需要人員下達命令的情況下開槍殺人。非政府組織還通過恰當命名的“停止殺手機器人運動”組織禁止致命的自主武器。即使是聯合國一直舉行一系列年度會議來討論致命的自主武器。

由麻省理工學院物理學家Max Tegmark和生命未來研究所牽頭的2015年運動呼籲“禁止有意義的人類控制以外的冒犯性自主武器”。2015年公開信得到了科學和技術專業人士的支持,如SpaceX和特斯拉創始人伊隆馬斯克,蘋果聯合創始人史蒂夫沃茲尼亞克和後期物理學家史蒂芬霍金。後續的公開信和活動也對此進行了跟蹤。

組織對抗殺手機器人的抵抗

澳大利亞新南威爾士大學人工智能教授Toby Walsh一直在積極研究社區對抗致命自主武器研製的阻力。因此,當KAIST-Hanhwa項目開發人工智能驅動武器的消息出現時,沃爾什再次開始行動並不令人意外。

“ 韓國時報關於'韓國研究院發起的開發人工智能武器項目'的文章被警告後,Toby Walsh(以他個人身份)和停止殺手機器人運動都寫信給KAIST總裁,但就我而言知道沒有收到任何答覆,“加州大學伯克利分校計算機科學和人工智能研究員Stuart Russell說。“託比沃爾什在等了兩週後提出了抵制,並要求一些研究人員在信上簽名。”

這次的不同之處在於呼籲AI研究人員選擇一所特定的大學,因為它致力於開發致命的自主武器技術。AI研究社區的專業知識成為未來與大學合作的討價還價工具。

“在聯合國正在討論如何遏制自主武器對國際安全造成的威脅時,聯合國正在討論如KAIST這樣的著名機構如何加速軍備競賽來發展這種武器,”這一公開信稱。“因此,我們公開聲明,我們將抵制與KAIST任何部分的所有合作,直到KAIST總統提供我們所尋求但未收到的保證,即該中心不會開發缺乏有意義的人員控制的自主武器。”

承擔AI使用的責任

除了簽署公開信之外,羅素還親自致信KAIST前總裁史蒂夫康,旨在瞭解有關KAIST與Hanhwa Systems合作的更多信息。拉塞爾澄清說,康顯然沒有事先了解韓華合同,因為韓國康氏任職韓國科學技術院院長後,韓國科學技術院 - 韓華協議已經正式化。

羅素承認,他通常對抵制有“疑慮”。但在這種情況下,他認為有關KAIST的提議抵制是“適當的”,因為人工智能研究界已經公開表示廣泛同意對抗致命的自主武器採取立場。

蒙特利爾大學的Bengio也通過簽署給韓國大學的公開信支持KAIST的擬議研究抵制。他之前曾支持2015年公開信,推動禁止致命的自主武器,並且還於2017年秋季簽署了另一封專門針對加拿大總理的信。

“現在和在可預見的未來,機器對道德價值,心理學和社會問題都沒有任何理解,”Bengio解釋說。“所以,當人們的生命,福祉或尊嚴受到威脅時,人類應該以重要的方式進入循環,即我們不能自動化殺人或將人員關在監獄裡。”

Bengio和Russell都同意研究人員負責以道德的方式指導AI技術的開發和使用。

“這絕對是我們的責任,就像醫生對參與處決有嚴格的政策一樣,”羅素說。

“我不同意那些說科學家應該堅持科學,並把所有政治問題留給政治家的人。”

關注未來

KAIST很快回應了國際研究界的公開信。到4月初,KAIST總裁Sung-chul Shin 發表了一項聲明,以緩解研究人員的擔憂:“KAIST無意參與致命自主武器系統和殺手機器人的開發。”研究人員承認,提議的抵制。

擬議抵制的明顯成功可能會激勵未來的運動追隨它的腳步。但許多大學在考慮可能導致致命自主武器的類似研究項目時可能會三思而後行。羅素指出,人工智能研究界將不得不保持警惕。

“不能否認合同本身,這是我們所希望的最好的,”羅素說。“許多簽字者都表示,我們需要密切關注在KAIST所做的工作,看看總統的聲明是否有意義。”

同樣,Bengio現在對KAIST的回應表示滿意。如果有必要,他對將來使用研究抵制的想法也表示贊同。

“即使它不是一直工作,值得這樣做,”Bengio說。“最重要的副作用是教育人們,政府和組織關於人工智能的使用(或誤用)的道德方面。”

組織對抗殺手機器人的抵抗

澳大利亞新南威爾士大學人工智能教授Toby Walsh一直在積極研究社區對抗致命自主武器研製的阻力。因此,當KAIST-Hanhwa項目開發人工智能驅動武器的消息出現時,沃爾什再次開始行動並不令人意外。

“ 韓國時報關於'韓國研究院發起的開發人工智能武器項目'的文章被警告後,Toby Walsh(以他個人身份)和停止殺手機器人運動都寫信給KAIST總裁,但就我而言知道沒有收到任何答覆,“加州大學伯克利分校計算機科學和人工智能研究員Stuart Russell說。“託比沃爾什在等了兩週後提出了抵制,並要求一些研究人員在信上簽名。”

這次的不同之處在於呼籲AI研究人員選擇一所特定的大學,因為它致力於開發致命的自主武器技術。AI研究社區的專業知識成為未來與大學合作的討價還價工具。

“在聯合國正在討論如何遏制自主武器對國際安全造成的威脅時,聯合國正在討論如KAIST這樣的著名機構如何加速軍備競賽來發展這種武器,”這一公開信稱。“因此,我們公開聲明,我們將抵制與KAIST任何部分的所有合作,直到KAIST總統提供我們所尋求但未收到的保證,即該中心不會開發缺乏有意義的人員控制的自主武器。”

承擔AI使用的責任

除了簽署公開信之外,羅素還親自致信KAIST前總裁史蒂夫康,旨在瞭解有關KAIST與Hanhwa Systems合作的更多信息。拉塞爾澄清說,康顯然沒有事先了解韓華合同,因為韓國康氏任職韓國科學技術院院長後,韓國科學技術院 - 韓華協議已經正式化。

羅素承認,他通常對抵制有“疑慮”。但在這種情況下,他認為有關KAIST的提議抵制是“適當的”,因為人工智能研究界已經公開表示廣泛同意對抗致命的自主武器採取立場。

蒙特利爾大學的Bengio也通過簽署給韓國大學的公開信支持KAIST的擬議研究抵制。他之前曾支持2015年公開信,推動禁止致命的自主武器,並且還於2017年秋季簽署了另一封專門針對加拿大總理的信。

“現在和在可預見的未來,機器對道德價值,心理學和社會問題都沒有任何理解,”Bengio解釋說。“所以,當人們的生命,福祉或尊嚴受到威脅時,人類應該以重要的方式進入循環,即我們不能自動化殺人或將人員關在監獄裡。”

Bengio和Russell都同意研究人員負責以道德的方式指導AI技術的開發和使用。

“這絕對是我們的責任,就像醫生對參與處決有嚴格的政策一樣,”羅素說。

“我不同意那些說科學家應該堅持科學,並把所有政治問題留給政治家的人。”

關注未來

KAIST很快回應了國際研究界的公開信。到4月初,KAIST總裁Sung-chul Shin 發表了一項聲明,以緩解研究人員的擔憂:“KAIST無意參與致命自主武器系統和殺手機器人的開發。”研究人員承認,提議的抵制。

擬議抵制的明顯成功可能會激勵未來的運動追隨它的腳步。但許多大學在考慮可能導致致命自主武器的類似研究項目時可能會三思而後行。羅素指出,人工智能研究界將不得不保持警惕。

“不能否認合同本身,這是我們所希望的最好的,”羅素說。“許多簽字者都表示,我們需要密切關注在KAIST所做的工作,看看總統的聲明是否有意義。”

同樣,Bengio現在對KAIST的回應表示滿意。如果有必要,他對將來使用研究抵制的想法也表示贊同。

“即使它不是一直工作,值得這樣做,”Bengio說。“最重要的副作用是教育人們,政府和組織關於人工智能的使用(或誤用)的道德方面。”


分享到:


相關文章: