阿西莫夫的機器人三定律真的在用嗎?

美國著名科幻作家阿西莫夫 (Isaac Asimov) 在他的作品中提出了 “阿西莫夫定律” (Asimov's Laws)——也稱為 “機器人三定律” (Three Laws of Robotics):

  • 第一定律: 機器人不得傷害人, 也不得因不作為而使人受到傷害。

  • 第二定律: 機器人必須服從人的命令, 除非那命令與第一定律相沖突。

  • 第三定律: 機器人必須保護自己, 只要這種保護不與第一及第二定律相沖突。

這些定律的引進是為了消解對機器人的敵意——在阿西莫夫的故事裡, 多數人對機器人懷有敵意, 擔心它們危害人類。 阿西莫夫定律也被其他一些科幻作家所採用, 由此形成了機器人小說的一種獨特流派 (順便提一下, 阿西莫夫後來還增添了一條 “第零定律”: 機器人不得傷害人類, 也不得因不作為而使人類受到傷害。 後三條定律則相應增加了不得與第零定律相沖突的限制)。這三條定律也在許多電影作品中被反覆提到。

阿西莫夫的機器人三定律真的在用嗎?

這一切都只是科幻, 但是——

近來, 一些研究者開始考慮一個有趣的問題: 科幻世界裡的阿西莫夫定律有必要引進到現實世界中來嗎? 這種考慮的一個例子, 是德國科布倫茨-蘭道大學 (Universität Koblenz-Landau) 的兩位研究者發表的一篇論文, 題為 “我們需要阿西莫夫定律嗎?” (Do We Need Asimov's Laws)。 該論文梳理了機器人這一概念的歷史沿革: 從公元前 8 世紀左右的荷馬史詩故事, 到 15 世紀的達芬奇所設想的機器; 從 18 世紀英國的砸毀機器運動 (類似於阿西莫夫故事中針對機器人的敵意), 到 20 世紀早期捷克作家卡佩克 (Karel Čapek) 的筆下首次出現 “機器人” 一詞…… 通過那樣的梳理, 該論文把科幻小說裡有關機器人危害人類的擔憂歸結於西方的宗教傳統, 即宗教傳統不允許效仿上帝, 機器人卻是效仿上帝造人的產物, 故而引起擔憂。 由於宗教傳統並非現實理由, 因此擔憂是不必要的, 該論文於是得出結論說: 為消解擔憂而引進的阿西莫夫定律也是不必要的。

這種推理顯然是薄弱的, 因為很多科幻作家——比如阿西莫夫——根本就不信宗教, 把他們小說裡的想法歸結於宗教傳統是很牽強的。 退一步說, 即便這種歸結成立, 也起不到論證作用, 因為宗教傳統雖不是現實理由, 卻也並非不能與現實理由兼具——事實上, 人類社會的很多現實正是宗教傳統造成的。

但另一方面, 推理薄弱不等於結論錯誤。 該論文的結論——即阿西莫夫定律是不必要的——倒是不無道理, 只不過那道理恐怕需要另行論證。 比較容易確認的是, 阿西莫夫定律在目前顯然是不必要的, 因為目前的機器人既沒有足夠的自主性, 也缺乏判斷情勢的能力——比如缺乏判斷 “傷害人” 的能力, 與阿西莫夫定律所要求的複雜性還有很大距離。 不過隨著機器人技術的發展及應用領域的拓展, 這一點正在改變。 前不久, 美國加州州立理工大學 (California Polytechnic State University) 的一位研究者提出的自動汽車——一種不擬人的機器人——在保護車主與撞到別人之間該如何取捨的問題, 就顯著接近了阿西莫夫定律所要求的複雜性。 不幸的是, 這個類似於經典倫理學難題——電車難題 (Trolley problem)——的問題似乎又太複雜了, 把第一定律架到了火爐上, 機器人是 “作為” 也不是, “不作為” 也不是, 恐怕只能聽任自己的 “正電子腦” (positronic brain) 被燒燬了。

看來, 真正的未來——尤其在細節上——往往不是科幻作家所能預見的, 阿西莫夫定律在目前還太複雜, 對真正的未來則又可能太簡單, 從而有可能確實是不必要的。 不僅如此, 阿西莫夫定律還存在其他一些不易推行的特點: 比如對機器人懷有敵意的人能輕易利用第二定律讓機器人自毀; 比如前一陣鬧得沸沸揚揚的美國軍方的無人機 (drone)——另一種不擬人的機器人——直接違反了第一定律, 但只要人類對自相殘殺的 “需要” 一日未絕, 那樣的機器人恐怕非但不會消亡, 還會有更多的應用。

阿西莫夫的機器人三定律真的在用嗎?


分享到:


相關文章: