人工智慧專家正在抵制一所頂尖大學對「殺手機器人」的研究

人工智能專家正在抵制一所頂尖大學對“殺手機器人”的研究

圖片來源於:Sciencealert

想到讓機器人的夥伴們把這些垃圾扔掉,割草是很有吸引力的,同樣的機器人也可能被用於更暴力的用途,以及在這條線在人工智能社區引起了巨大的分裂。

現在,超過50名世界頂尖的人工智能專家正在完全抵制與久負盛名的韓國先進科學技術研究所(KAIST)的接觸,因為他們正在研發一種以人工智能武器為基礎的武器。

凱斯特與武器公司韓華系統(Hanwha Systems)簽署了一項協議,該公司目前已知正在開發一種名為集束彈藥的破壞性武器,違反了聯合國禁止此類大規模爆炸裝置的禁令。

加上人工智能,它們可能更致命。

“當聯合國正在討論如何控制自動武器對國際安全構成的威脅時,令人遺憾的是,像凱斯特這樣的知名機構正在加速軍備競賽,以開發此類武器,”人工智能研究人員在一封公開信中寫道。

“因此,我們公開宣佈,我們將抵制所有與KAIST任何部分的合作,直到KAIST的總裁提供保證,我們一直在尋求但未得到的保證,該中心不會開發缺乏有意義的人類控制的自主武器。”

凱思特是世界領先的機器人和科學實驗室之一:那裡的研究人員已經開發出了從液體電池到疾病傳感器的一切東西。

但這是該研究所與導致這種轟動的殺人機器的潛在發展的聯繫。

就其本身而言,KAIST否認它計劃與韓華系統開發自主武器。

“作為一個學術機構,我們非常重視人權和道德標準,”KAIST總裁Sung-Chul Shin在一份聲明中說。

“KAIST將不會進行任何與人類尊嚴相關的研究活動,包括缺乏有意義的人類控制的自主武器。”

隨著硬件和軟件的飛速發展——無論是在家裡的智能揚聲器裡,還是在軍方使用的武器上——許多專家都擔心,我們將開發出一些我們無法控制的東西,而不是更晚的時間。

人工智能專家正在抵制一所頂尖大學對“殺手機器人”的研究

斯蒂芬·霍金(Stephen Hawking)

埃隆·馬斯克(Elon Musk)、史蒂夫·沃茲尼亞克(Steve Wozniak)和已故的斯蒂芬·霍金(Stephen Hawking)都是一些知名人士,他們呼籲各國政府和聯合國對在人工智能系統上運行的武器進行限制。

如果我們進入導彈、火箭和炸彈獨立於人類控制的階段,後果將是可怕的,特別是在錯誤的手中。

“如果發展起來,自主武器將是戰爭的第三次革命,”來自30個不同國家的研究人員簽署的公開信繼續寫道。“他們將允許戰爭以前所未有的速度進行。”

“他們有可能成為恐怖的武器。”暴君和恐怖分子可以利用他們對付無辜的人民,消除任何道德約束。這個潘多拉的盒子如果打開就很難關閉。

聯合國成員國將於4月9日星期一舉行會議,討論禁止使用致命的自主武器的禁令,這種武器無需人工干預就能殺人。

這已經不是第一次召開這樣的會議了,但到目前為止,協議已經供不應求。

其中一個問題是,各個國家都熱衷於為自己的軍事目的開發這種技術,而私營企業在開發自己的人工智能模型時,不希望受到監管的束縛。

雖然我們可能都同意殺手機器人是壞的,但事實證明,決定如何處理它們的發展是很困難的。

或許,凱斯特的新武器研究將迫使有關各方達成協議。

許多科學家現在希望看到關於人工智能如何開發和部署的指導方針。儘管如此,確保每個人都堅持使用腳本可能會很棘手。

澳大利亞新南威爾士大學(University of New South Wales)人工智能教授託比•沃爾什(Toby Walsh)組織了這次抵制活動,他說:“我們陷入了一場沒人想要的軍備競賽。”

凱斯特的行動只會加速這場軍備競賽。我們不能容忍。”

沃爾什補充說:“我希望,這次抵制行動將增加週一開始的聯合國討論的緊迫性。”

它發出了一個明確的信息,即人工智能和機器人社區不支持自主武器的開發。任何其他大學計劃在這個空間開設實驗室都需要三思。

讓我們希望週一的會議能產生一些基本規則,這些規則可以確保人工智能被用來造福人類,而不是幫助破壞人類。

這是一封完整的公開信:

人工智能專家正在抵制一所頂尖大學對“殺手機器人”的研究

以上是公開信內容,翻譯如下

翻譯內容:

這是一封完整的公開信:

作為研究人工智能和機器人技術的研究人員和工程師,我們非常擔心在韓國最大的武器公司韓華系統的合作下,在凱斯特建立一個“國防和人工智能融合研究中心”。據報道,該中心的目標是“開發用於軍事武器的人工智能技術,加入全球發展自主武器的競爭”。

當聯合國正在討論如何控制自動武器對國際安全構成的威脅時,令人遺憾的是,像凱斯特這樣的知名機構正在加速軍備競賽,以開發此類武器。因此,我們公開宣佈,我們將抵制所有與KAIST任何部分的合作,直到KAIST的總裁提供了我們所尋求但未得到的保證,即該中心不會開發缺乏有意義的人類控制的自主武器。例如,我們將不會訪問KAIST,接待來自KAIST的訪客,或參與任何涉及KAIST的研究項目。

如果發展起來,自主武器將是戰爭的第三次革命。他們將允許戰爭以前所未有的速度進行。他們有可能成為恐怖的武器。暴君和恐怖分子可以利用他們對付無辜的人民,消除任何道德約束。如果打開的話,這個潘多拉的盒子將很難關閉。像過去禁止的其他技術一樣,我們可以簡單地決定不開發它們。我們敦促KAIST走這條路,轉而使用人工智能來改善和不傷害人類的生活。

本文譯自:Sciencealert 譯者:劉裕嶸

觀看我們的文章,不如關注我們,這樣你能瞭解到我們最新的看點及內容,手指只需輕輕一點無需佔用您更多的時間!


分享到:


相關文章: