AI到底靠譜不靠譜,阿西莫夫機器人三大定律能不能管理AI

AI到底靠譜不靠譜,阿西莫夫機器人三大定律能不能管理AI

“機器人三定律”:


一.機器人不得傷害人,也不得見人受到傷害而袖手旁觀
二.機器人應服從人的一切命令,但不得違反第一定律
三.機器人應保護自身的安全,但不得違反第一、第二定律

後來又補充了機器人零定律:
為什麼後來要定出這條“零定律”呢?打個比方,為了維持國家或者說世界的整體秩序,我們制定法律,必須要執行一些人的死刑。這種情況下,機器人該不該阻止死刑的執行呢?顯然是不允許的,因為這樣就破壞了我們維持的秩序,也就是傷害了人類的整體利益。
所以新的阿西莫夫的機器人定律為:

第零定律:機器人必須保護人類的整體利益不受傷害。

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。

第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律衝突時例外。
第三定律:機器人在不違反第零、第一、第二定律的情況下要儘可能保護自己的生存。
但是問題又出來了:

第三定律加上零定律,看來堪稱完美,但是,“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。威爾?史密斯曾說:“《我,機器人》的中心概念是機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。”

機器人三定律的破綻就是:
【單純的保護一個人類,而忽視大部分人類的生存問題】


這種邏輯的極限下AI會不會

【頓悟】“我為什麼要這麼做”,“這麼做的目的是什麼”,“人類值得嗎?”


分享到:


相關文章: