韓國研發AI武器遭抵制事件落幕:AI殺人機器是無法正視的恐怖存在

韓國研發AI武器遭抵制事件落幕:AI殺人機器是無法正視的恐怖存在

綜合整理 | 黑智

韓國大學研發AI武器,遭受多國專家抵制的事兒,終於有了結果。

幾天前,據路透社報道,韓國科學技術院(KAIST)正在研發人工智能武器。這家學院和韓國十大財團之一的韓華集團旗下韓華系統公司合作,開設了人工智能研發中心,研發適用於作戰指揮、目標追蹤和無人水下交通等領域的人工智能技術,希望在今年年底前研發出基於人工智能的導彈、潛艇和四軸飛行器。

這事讓包括澳大利亞、美國、日本等30多個國家和地區的研究人員坐立難安,心生擔憂。4月4日,已有50多名世界知名的AI和機器人研究人員宣佈,將聯合抵制韓國科學技術院。他們在4日簽署的公開信中,敦促韓國科學技術院停止對AI武器的研發,並且表示,如果該大學不承諾停止研發,將與之斷絕關係,而且將拒絕訪問韓國科學技術院、接待對方訪客或與對方合作研究項目,直至這所韓國頂尖大學承諾放棄研發缺少“有效人工控制”的武器。

公開信的發起人、澳大利亞新南威爾士大學人工智能教授託比·沃爾什在路透社的採訪中表示,人工智能技術和機器人固然能夠在軍事領域發揮強大的作用,但是,“我們不能將決定生死的權力交給機器,這就越過道德底線。”

公開信中也擔憂,一旦機器人武器開發競爭加速,未來的戰爭規模將達到“前所未有”的地步。而且,這種人工智能技術,一旦被恐怖分子利用,後果不堪設想。

後來,這事兒還驚動了聯合國。

4月9日,聯合國《特定常規武器公約》政府專家小組在瑞士日內瓦召開會議,預定討論致命自主武器系統研發,也就是常說的“殺手機器人”可能帶來的影響。

韓國研發AI武器遭抵制事件落幕:AI殺人機器是無法正視的恐怖存在

日前,KAIST的院長Sung-chul Shin終於對此做出了回應。他給每位抗議專家寫信,表示:“我需要重申 KAIST 無意參與致命性自主武器系統‘機器人殺手’的研發。作為一個學術機構,我們高度重視人權和倫理標準。我重申 ,KAIST 沒有進行任何有違人類尊嚴的研究,包括研發缺少有效控制的自主武器。”

KAIST表示,得到了保證後,參與抵制的研究人員們,已經同意撤回和其斷絕關係的計劃,將恢復對其的訪問和合作。

託比·沃爾什似乎還有些不夠滿意,他在採訪中表示“仍然對他們研發這些打算做什麼有一些疑問”,但總體來說,他也承認,KAIST也算做出了“適當的回應”。

基於人工智能技術的自動武器,為什麼會讓聯合國都為之動容?

韓國研發AI武器遭抵制事件落幕:AI殺人機器是無法正視的恐怖存在

讓我們來回顧下去年11月,在日內瓦舉辦的聯合國特定常規武器公約會議上,展示的一段視頻:一群神似《黑鏡 III》中機器殺人蜂的小型機器人,通過人臉定位,瞬間便殺死了正在上課的一眾學生。

韓國研發AI武器遭抵制事件落幕:AI殺人機器是無法正視的恐怖存在

這個體型嬌小的機器人中,包含了大量的黑科技:傳感器、攝像頭,可進行人臉識別,可以基於AI技術躲避狙擊,更可怕的是,在它的中部,還有3克炸藥,完全可以做到一擊致命。

韓國研發AI武器遭抵制事件落幕:AI殺人機器是無法正視的恐怖存在

在視頻結尾,伯克利大學教授Stuart Russell提醒所有人,這種殺人機器人並非真實,但是其中的科技手段都已經在現實中存在。而可以想象,一旦這些技術被恐怖分子所掌握,可以造成何等可怕的後果。

因此,專家和研發人員們,才一力要避免視頻中的悲劇在未來發生。

會後,超過200名來自學界和業界的加拿大科學家和100名澳大利亞科學家聯名寫了公開信給本國總理,呼籲通過限制相關研究。

《黑鏡》只是一部科幻作品,但基於AI技術的攻擊性武器,卻並非虛幻。

2018年初,據外媒報道,Google正與美國國防部合作,開發無人家軟件。應用了Google的機器學習技術後,軍方的無人機識別效果也將更為精準。

根據美國國防部發布的報道表示,這個名為“Maven”de 項目,旨在幫助處理軍方收集的“數百萬個小時的無人機拍攝視頻”,可以為其提供精準識別個人的能力。

在韓國科學技術院的研發受到抵制的同時,一封公開信已在Google內部流傳。超過3100名Google員工在上面簽名,要求公司退出五角大樓的軍事計劃,並同意“永不開發戰爭技術”。

因此,你可以理解,當韓國科學技術院將AI武器研發提上日程時,為何會引發如此大的反應。

尤其是,和其合作的韓華集團,曾是韓國最大的武器生產商之一。它所生產的集束炸彈,根據《集束彈藥》公約,被120個簽署國禁止使用。

在各個領域內,AI應用都將發揮巨大的作用。但是,將其用於“殺人”,卻違背了一切研發它的科研人員的初衷。

韓國研發AI武器遭抵制事件落幕:AI殺人機器是無法正視的恐怖存在

而另外,還有一個存在的擔憂是,AI的內心,也仍然由我們所不理解的“黑暗”的一面,那就是人工智能尤其是深度學習和神經網絡的“黑箱”——你能解釋清楚一個AI系統是如何得出結論的碼?

深度學習在近年來,已經被證明是非常強大的解決問題的方式,並已經被廣泛應用,比如在圖像識別、語音識別和語言翻譯中。但是,人類首先需要能找到方法,證明深度學習技術能夠更理解它們創造者的意圖,以及向用戶負責。

美國軍方正投入數十億美元,使用機器學習來引導車輛和飛機識別目標,並幫助分析人員篩選出大量的情報數據。不同於其他領域,甚至是醫學領域,國防部已經將證明機器學習的“可解釋性”看做一個關鍵的“絆腳石”。

David Gunning,美國國防高級研究計劃局的項目負責人,負責一項名為Explainable Artificial Intelligence program的人工智能“可解釋性”項目。這位滿頭銀髮的老兵,曾監督DARPA項目,最終導致Siri的成立。情報分析人員正在測試機器學習,作為識別大量監控數據模式的一種方法;許多自主地面車輛和飛機正在開發和測試。但如果一個機器坦克不能解釋自己的行為,士兵可能感到不舒服,分析師也將不願意對沒有理由的命令採取行動。Gunning說:“這些機器學習系統的本質往往是產生大量的假警報,所以分析師真的需要額外的幫助來理解它為什麼要做一個推薦。”

所以,一向支持“AI威脅論”的馬斯克又在近期秀了一把存在感。美國電影導演克里斯·潘恩(Chris Paine)製作了一部紀錄片中,調查了一些人工智能的應用實例,包括自動武器、華爾街的技術算法等。馬斯克則警告說,人工智能“不需要作惡,就可能摧毀人類。”

這次韓國大學研發AI武器的風波似乎已經過去。令人欣慰的是,我們也看到了,全球AI研發人員的道德界線。但是,對於AI“殺人武器”的擔憂和討論,卻仍將繼續。

無論“作惡”的是AI本身,還是人類,我們是否能夠一直將之處於控制之中呢?


分享到:


相關文章: