“無頭屍”引發爭議:殺死機器人是否可能

“無頭屍”引發爭議:殺死機器人是否可能

希區波特2.0仍舊充滿信任,友善,願意跟人分享。

2015年,美國費城發生了一起“謀殺案”,一個靠搭便車隻身周遊世界的旅行者在途中遇害。

此案引起轟動,因為曝屍街頭的受害者不是人,是一個機器人,叫希區波特(Hitchbot,搭便車機器人)。它的遇害引發的爭議核心是人機關係。

在這件事上,問題不是人類能否信任機器,而是機器是否可以信任人類。

人類能不能殺死一個機器人?同樣,人類可以如何防止被機器人殺死?

“無頭屍”引發的爭議

希區波特是加拿大科學家設計的實驗小機器人,任務是研究人與機器相處的方方面面,尤其是人對機器的態度。

機器人首先是機器,是人類製造的工具。但人類無法不將機器擬人化,對它們賦予人性。人性中的善與惡便自然而然投射在機器人的世界,以及人類和機器互動的過程中。

希區波特開始周遊世界後不久,即在費城被人發現屍橫街頭垃圾桶旁,而且是無頭屍。雖然它的頭是用透明塑料蛋糕盒做的,它很萌,設計成人畜無害的孩子模樣,仍免不了這樣悲慘的結局。

但是,“殺死一個機器人”這句話有沒有語病?機器跟殺死同框,通常是機器殺死別的什麼;殺死機器?毀壞機器是不是聽著更自然?

現在還沒有權威證據說明,機器被賦予多少人性、擬人化到什麼程度,“殺死”機器人激起的反應才會跟殺死一個生命一樣。

但世界各地許多實驗室都在從事與此相關的研究。

“無頭屍”引發爭議:殺死機器人是否可能

希區波特遭厄運前也曾風光過,在加拿大原住民的慶典上貴為嘉賓,還被授予“鐵女人”名號。

希區波特在人世間

希區波特最近死而復生,就在它的誕生地,多倫多瑞爾森大學(懷雅遜大學,Ryerson University)。

如果讓兒童設計機器人,可能看上去就像希區波特,蛋糕盒腦袋,白色水桶軀體,游泳救生浮條做成四肢,還坐在嬰兒座椅裡。它帶著全球定位系統(GPS)接收器,還有一個與人對話的軟件,它的胳膊可以動, 還會微笑和眨眼。

作為一個為搭便車而誕生的機器人,希區波特自然會豎起拇指示意需要搭車。

它的“父母”,弗蘿克·澤勒(Frauke Zeller)博士和她丈夫戴維·史密斯(David Smith)教授把它設計成孩童的樣子,以便贏得人們的信任,激起人們幫助它的願望。

希區波特在人世間一開始就遇到一對善良的老年夫婦,把它帶到哈利法克斯的露營地度了個假。後來,它跟著一群年輕人去觀光旅遊,之後又作為加拿大原住民慶典儀式嘉賓,被賜予女性性別和名字 - “鐵女人”。

希區波特在推特、臉書和Instagram上有自己的帳號,一路上吸粉無數,迅即成為網紅;許多人駕車數十英里,就為了“偶遇”希區波特,讓它搭車。

希區波特開始被賦予越來越多的人性,人們開始給它打扮,戴上手鐲和其他首飾。

有時,控制中心覺得必須關閉希區波特的GPS定位儀,免得在路上搭載它的人回家後被其他打劫。

然後,突然有一天控制中心接到希區波特橫屍街頭的圖片,胳膊和腿都被扯掉,腦袋也不見了。澤勒博士說,全世界的希區波特迷都倍感震驚,因為它已經成為信任的象徵。

即使知道它只不過是一些物質材料的組合,澤勒博士的團隊對這個結局的傷心也出乎他們自己的意料。他們本來沒有意識到自己對這個小機器人那麼有感情。

兇手至今逍遙在外。

“無頭屍”引發爭議:殺死機器人是否可能

對於一個個子跟小孩差不多的機器人希區波特(Hitchbot)來說,搭車旅行充滿了各種意外的驚喜和危險

機器人的優勢是可以死而復生。希區波特復活了,叫希區波特2.0,裝了個新的腦袋,但它的父母不準備再放它出去做獨行俠闖世界。

希區波特2.0第一次出門,有澤勒博士、史密斯教授和BBC記者一起陪同,去的地方是大學附近一個十分安全的咖啡館。

當然它立刻被人認出來了,許多人停下腳步跟它打招呼、合影自拍,又見到希區波特了,大家都很開心。

希區波特現在還有一個機器人朋友,叫佩珀(Pepper),孩子模樣,大眼睛,目前還在模型研製階段。它們倆一起參加人機信任關係實驗。

佩珀將來要從事的工作是跟癌症患者交談。專家們認為,患者對佩珀會比對普通護理員更坦率,信任度更高。

“無頭屍”引發爭議:殺死機器人是否可能

你能忍心用棒槌猛擊這個機器恐龍嗎?它叫普利奧(Pleo),住在波士頓,麻省理工大學(MIT)實驗室。

棒打普利奧

人類對待仿真程度較高的機器,比如人形機器人和象形機器動物,有惡與善兩個極端。一個是殘忍,比如2015年小機器人希區波特之死。至於兇手是把它當作機器來破壞,或者為了拆走它的零部件和定位設施,還是在心理上把它當作人類一分子,施以殘暴而獲得變態快感,現在無解 。

另一個極端則是把人對人的善意投射到機器人身上,心理上完全把它當成有喜怒哀樂疼痛歡愉的生命。在機器人被砸、被破壞時,這樣的人會把它摟在懷裡,保護它免遭毒手。

MIT教授凱特·達林(Kate Darling)在她的實驗室專門折磨仿真度很高的機器恐龍。實驗目的是檢測人類對機器的善與惡、愛護和殘忍可以達到怎樣的極限。

她研究人機關係,以及人類對待機器人的態度和行為所折射的心理特質,比如同理心、共情心,心理上的暴力傾向,等等。

她發現,有些人被要求砸機器恐龍時毫無心理障礙,而另一些人完全下不了手。值得注意的一個細節是,被棒槌擊打的機器恐龍會發出哀嚎,作出痛苦的表現。它有名字,叫普利奧。

參加實驗的大部分人都不忍心擊打普利奧。

有一位婦女參加達林教授組織的一次折磨機器恐龍實驗時,心疼機器恐龍,直接把它的電池取出來,後來承認自己那麼做是覺得這樣恐龍就不會感到疼痛。

一個無可爭議的事實是,機器人、機器狗、機器恐龍,即使仿真到可以以假亂真的程度,實際上還是沒有生命的機器,是金屬塑料零件的組合,而砸碎它們在道義上並沒有什麼問題。

但是,如果把仿真機器人或機器動物放在動物的位置上,那麼很容易觀察到一個現象就是無情折磨、毀壞機器人/動物的那些人,往往都有虐待寵物和其他小動物從中取樂的習性;在他們心目中,仿真的機器貓、機器狗跟真的貓和狗沒區別,機器逼真的反應更刺激他們的虐待本能。

“無頭屍”引發爭議:殺死機器人是否可能

希區波特漫遊途中在一位臨時主人家歇腳,主人要款待這位稀客,而招待機器人的美食應該是電池。主人家的狗狗

人類天性使然

MIT另一個實驗室的羅薩琳·皮卡德(Rosalind Picard)教授認為,人們對普利奧的這種反應實際上還是跟人性有關。

她是說,人際關係是人類的本能,天性,製造機器的工程師同樣是人,同樣具備這種天性。

把機器植入人際關係這個人類精神世界體系,是一件極具爆發力的事。

機器和人類在感情上能夠溝通,機器能理解人類的情緒,對於服務類機器人來說至關重要,因為它們的職責就是為人提供服務,比如老弱病殘的護理、家務勞動、餐飲服務等。

但是,對機器過度擬人化,對機器賦予過多的人性色彩,則可能不是很妥當。

皮卡德教授在她的實驗室接受BBC採訪時指出,“我們正處於一個關鍵節點,人類社會作為一個整體應該明確一點,那就是不能再用機器比人類更具人性的理念去誤導人類。”

“它們可以在採訪時 以假亂真,外表看上去可以像真人一樣,在特定的情境中可以說出正確的話,”她說,但機器就是機器,與人類差遠了。

機器人可以識別微笑的人臉,但它沒有快樂幸福的感覺;它可以“學會”人在什麼情況下會微笑,但不會理解“苦笑”。

“無頭屍”引發爭議:殺死機器人是否可能

皮卡德教授承認,即便是工程技術員也會對自己設計製造的機器產生感情依戀

皮卡德教授承認,對周圍的事物產生情感依戀是人類本能,即使是沒有生命的機器,連她自己都無法避免陷入這個情感坑。

最說明問題的是,大部分人對自己的第一輛私家車都有一種特殊的感情,在心底深處那輛車被賦予了人性。

皮卡德說:“把那輛車賣掉的時候我幾乎要掉眼淚。”

她的實驗室研製幫助人類但未必長得像人的機器人,其中一款是在醫院代替家長和護士陪伴兒童病患的機器人。

她認為人類必須剋制自己對機器的情感,同時又必須讓機器理解人類的情感。就像是這樣:

“如果機器人惹你生氣了,那它必須能夠知道你生氣了,就像你的寵物狗一樣,知道它這時應該作出認錯的表示,類似於低頭垂耳耷拉尾巴那種姿態和表情。”

“無頭屍”引發爭議:殺死機器人是否可能

機器人戰士不太可能是科幻小說中描繪的人形機器人,其外表更有可能像是自動化的傳統武器

殺人的機器人

謝菲爾德大學機器人學科教授諾埃爾·沙奇(Noel Sharkey)教授也認為,人們不應該過分沉溺於對機器人的擬人化,把機器當作有生命的人或動物來對待。

他對BBC表示,人類把機器人當作介於有生命和無生命之間的一種存在來對待,根源還是在人類對物的擬人化本能。

比如,一樣東西活動了,人們會覺得它有思想,他說,但他希望自己能讓人們停止對一切事物做這種“愚蠢的類比”,用言辭賦予它們人性。

他說:“我們應該開發一套科學的語言。”

沙奇教授最近參加了一個行業大會,在會上做了一個展示。他找到一個為養老院設計的可愛的機器海豹,把它的腦袋在桌子上猛砸。

在場的人無不對他怒目相視,斥他為妖怪猛獸。

而實際上他堅定地立足於和平陣營,他發起倡導禁止戰爭機器人的運動。把機器人用於戰爭,在他看來是現代機器人領域的頭號倫理道德議題。

戰爭機器人並不像電影裡那種拿著機槍的終結者;戰爭機器人實際上沒有人形,它們是武器,看上去就是武器,只不過設計成可以自動尋找目標的殺人武器,“我認為這有悖於人類尊嚴。“

在他的反倫理機器人研發項目名單上包括:

哈皮(Harpy) - 以色利研發的反雷達信號的武器,能夠偵察識別信號是否屬於以色列的雷達。如果不是,就直接扔炸彈

俄羅斯軍方研製的自動超級坦克

卡拉什尼科夫公司設計的自動槍械

“無頭屍”引發爭議:殺死機器人是否可能

人類對機器賦予了太多的人性?但是人性本來就極複雜,在機器人世界的投射不會更多一層扭曲嗎?

過去五年來,沙奇教授一直在跟聯合國合作,推動各國在一份國際公約上簽字,承諾禁用戰爭機器人,或者在沒有”有效的人類控制“情況下禁止使用戰爭機器人。

已經有26個國家簽署了公約,包括中國。

但是,“人類控制”本身就包含著各種各樣的問題。

如果編程出了差錯,那麼人工智能會作出什麼樣的反應?

如果用來製造娛樂機器人的技術被用來生產冷麵殺手,又有什麼機制可以防範、偵測?

在人機關係領域,應該有怎樣的行為準則,遊戲規則?應該搭建怎樣的倫理框架?

這些都有待人類提供答案。


分享到:


相關文章: