杜算子 发自 人工智能的凝视下
人工智能大热,人工智能威胁论也随之而起——
未来,人工智能是否真的会和我们作对?假如机器人「爆发起义」,我们能做什么来阻止它们?
在回答这个问题之前,我们先来谈谈著名的图灵测试。
图灵测试
The Turing test,图灵测试。
顾名思义,是由计算机科学之父,人工智能之父图灵先生提出。
图灵测试是对于「机器是否能够思考」的尝试,通过机器与人类的对话判断哪个是人类的答案,哪个是机器给出的回答。如果机器人成功骗过了评委,就算通过了测试。
每年都有一场名为「罗布纳奖」的人工智能竞赛,根据图灵测试的规则,评选出和人类最类似的电脑程序。
在这场竞赛中,如果机器人因为做出超出人类能力范围的事情,而暴露了自己的身份,它就败了…
图灵认为对于这场竞赛,在编程中留下一些「破绽」才能成为更好的游戏者。无论是早期由普通人评委,还是后来邀请计算机工程师这种行家来判断,都有人被成功机器给「骗」了。
罗布纳奖竞赛设立后,英国《经济学人》杂志发表了一篇名为《人工愚蠢》的文章。
文中提到,因为计算机展现出了某些超人的性能,为了保证机器所做的回答不超出人类的能力范围,程序员不得不强迫聊天机器人犯错误。
比如为了在测试中取胜,而故意打错字,限制其能力,让它更像人类。这些错误在媒体上被称为「人工愚蠢」。
其实「人工愚蠢」随处可见,比如游戏开发中的 NPC(Non-Player Character,非玩家角色)便是加入了「人工愚蠢」的设定。
对于如何让机器人在图灵测试中露出破绽,知乎上展示了我们人类的智慧,有个问题叫做「如果你是图灵测试者,你会问机器什么问题?」,楼下的答案五花八门:
「面包进了虫子」, 请问面包和虫子哪个体积大?——francium bobo
冯·诺依曼和图灵掉水里你先救那个?——李硕
多大了,有对象了吗?你想找个什么样的对象啊?打算几时结婚啊?打算要几个孩子啊?这些接地气的问题是我很难回答的,我很想听听人工智能的回答,如果它的答案也很干瘪,那我们会变成有共同话题的人吧……如果对上面这几个问题回答的很认真,没有敷衍的意思,那绝对是机器了。——知乎匿名用户
「请预测未来十天的大盘走势」——呆蛙
我:猫坐在毯子上,因为它很温暖。什么很温暖?Siri:有趣的问题。——王笑笑
…………
我不禁按知乎网友的答案对Siri进行了提问,「你想找什么样的对象啊」,Siri告诉我「看看这些」,并给我推荐了各种婚恋服务中心。
求我此刻的心理阴影面积…
图灵测试在某种程度上需要让机器更接近人类,也就是说,需要对人类的能力水平进行估计,来计算机器所需资源的数量。
那么问题来了~我们人类的能力范围在哪儿?
人类的能力范围
当我们试图估算人脑计算能力时,会发现,人脑是一个复杂的系统,其架构与冯·诺依曼计算机架构完全不同。
人类大脑大约有 1000 亿个神经元,每个神经元大约有 5000 个潜在的突触。算一下,这就相当于 5*10^14 个突触,即 5*10^14 个潜在的数据点。
假设每个突触存储一个比特,那么大脑理论上可以对 10^12 到 10^15 比特的信息进行编码。
但是神经科学家在「突触如何对信息进行编码」这个问题中还没有得出答案,所以这样估计出的存储数量也不确切。比如,一些突触可能通过传递的长度不同来编码多个比特,或者突触可能不是完全独立存在的。
尽管大脑可以对信息进行编码,但人类能处理的信息数量也是有限的。
米勒在他的经典文章中表明,我们的大脑工作记忆的容量只有 7±2 个组件。限制大脑对信息处理的瓶颈有三个:瞬间注意力(Attentional Blink)、视觉短期记忆(Visual Short-Term Memory)和心理不适期(Psychological Refractory Period,可以理解为动作与动作之间的延误)。它们分别限制了我们的意识感知能力、记忆能力和行动能力。
在大脑的处理速度上,大脑对复杂图像所需的处理时间约为 100 毫秒,对于更复杂或者更大的图像我们所需要的处理时间也要更久。
这也被称为希克一海曼定律(Hick 定律):做出选择所需的时间与信息量成线性关系。
机器的能力范围
通过上述研究结果,我们知道人脑是有计算限制的,比如在记忆、处理、计算和运算速度等方面,并且大脑是存在一定的认知偏差的。
但人工智能并不存在这样的先天限制。
原来计算机的运算能力被硬件能力所约束,但通过云计算的发展,它的上限早已高出我们的想象。也正是因为这样潜在的「超能力」,很多学者对于人工智能的发展表示担忧,并对人工智能的限制方法进行了研究。
对于人工智能发展的担忧
最直观的是,机器人是一台拥有「超能力」的永动机。
人工智能的发展会代替大量的劳动力,导致失业和人才淘汰。如果说这是各阶段社会发展会带来的必然影响,那么人工智能被应用到军事领域又会如何?
截止到 2015 年,日本将近 20 人死于机器人手下。最出名的是大众公司在德国的一家工厂内,一个机器人杀死了外包员工。
虽然工作人员称其为「人为操作失误」,如果这种潜在的杀伤力在军事领域展现,甚至被恐怖分子利用,后果不堪设想。
如果说核武器危害也很大,我们不是也控制的很好么?
人工智能的不同之处就在于它的「智能」。研究人员更担心,人工智能的自我发展会脱离人类的控制造成不可预计的危害。
特斯拉 CEO 马斯克就曾表示「人工智能可以通过制作假新闻、假冒的电子邮件帐号和虚假的新闻稿来发动战争,它们这样做只需要操纵信息。很多时候,钢笔比剑更强大」。
很多专家也认为人工智能可能催生新型的网络犯罪、实体攻击或政治颠覆等。
技术的问题终究需要技术来解决。很多学者对人工智能的限制方法进行了研究。
有研究人员试图通过对编码规则和法律进行限制,告诉机器人「你不能升级自己或你的代码」,但是这也许很难真正阻止人工智能用蛮力,或诱使人类去改变这样的规则。
既然我们无法从记忆、处理和计算等方面对人工智能进行限制,那么人类的认知偏差能否成为其限制条件?
人工智能加入「人工愚蠢」
许多研究者致力于让人工智能从人工反馈中进行学习,使人工智能更安全。即如果人工智能系统做出正确的行为就给予其奖励,而这种奖励要给予人工的评判。
但是对于很多复杂的事务,人工反馈也变得相当繁琐,并且人工反馈在很多情景下也是很难量化的。
这种思想可以借鉴的是,它学习了人类的评判方式,即被一定程度上赋予了「认知偏差」。
来自法国索邦大学的研究员 Michaël Trazzi 和路易斯维尔大学的研究者 Roman V. Yampolskiy 给出一个增强人工智能安全性的方案——
让人工智能拥有人类的愚蠢
比如,人类的认知偏差。他们指出了 14 种特定的人类偏见,用神经网络将其编码,使得人工智能无法大幅超越人类的智力。
举个几个栗子~
比如让它有「跟风效应」,以获得人类普遍的价值观念;
让它学会「礼貌待人」,尽量不冒犯任何人,避免其产生攻击性行为;
让它变得「保守一点」,保持初始值,并且倾向于传统观点,不会变得邪恶;
让它有点「固执」,只像人类一样使用对象,而不会「黑」任何东西或使用带有「恶意」的对象……
很明显的是,某些人类偏见的引入也给人工智能带来非理性行为,是否实施需要更加谨慎的考量。
图灵测试是人工智能早期的探索,而它因限制了机器的能力,在一定程度上鼓励了低质量的人机交互而备受争议。
人工智能是时代发展的产物,为了让人工智能更安全,我们是否应该让它变得「笨一点」,「人工愚蠢」对其安全性是否奏效、是否有其意义,都需要时代的检验。
閱讀更多 科技MIX 的文章