人工智能+人工愚蠢=安全?

杜算子 发自 人工智能的凝视下

人工智能大热,人工智能威胁论也随之而起——

未来,人工智能是否真的会和我们作对?假如机器人「爆发起义」,我们能做什么来阻止它们?

人工智能+人工愚蠢=安全?

在回答这个问题之前,我们先来谈谈著名的图灵测试。

图灵测试

The Turing test,图灵测试。

顾名思义,是由计算机科学之父,人工智能之父图灵先生提出。

图灵测试是对于「机器是否能够思考」的尝试,通过机器与人类的对话判断哪个是人类的答案,哪个是机器给出的回答。如果机器人成功骗过了评委,就算通过了测试。

人工智能+人工愚蠢=安全?

每年都有一场名为「罗布纳奖」的人工智能竞赛,根据图灵测试的规则,评选出和人类最类似的电脑程序。

在这场竞赛中,如果机器人因为做出超出人类能力范围的事情,而暴露了自己的身份,它就败了…

人工智能+人工愚蠢=安全?

图灵认为对于这场竞赛,在编程中留下一些「破绽」才能成为更好的游戏者。无论是早期由普通人评委,还是后来邀请计算机工程师这种行家来判断,都有人被成功机器给「骗」了。

罗布纳奖竞赛设立后,英国《经济学人》杂志发表了一篇名为《人工愚蠢》的文章。

文中提到,因为计算机展现出了某些超人的性能,为了保证机器所做的回答不超出人类的能力范围,程序员不得不强迫聊天机器人犯错误。

比如为了在测试中取胜,而故意打错字,限制其能力,让它更像人类。这些错误在媒体上被称为「人工愚蠢」。

人工智能+人工愚蠢=安全?

其实「人工愚蠢」随处可见,比如游戏开发中的 NPC(Non-Player Character,非玩家角色)便是加入了「人工愚蠢」的设定。

对于如何让机器人在图灵测试中露出破绽,知乎上展示了我们人类的智慧,有个问题叫做「如果你是图灵测试者,你会问机器什么问题?」,楼下的答案五花八门:

人工智能+人工愚蠢=安全?

「面包进了虫子」, 请问面包和虫子哪个体积大?——francium bobo

冯·诺依曼和图灵掉水里你先救那个?——李硕

多大了,有对象了吗?你想找个什么样的对象啊?打算几时结婚啊?打算要几个孩子啊?这些接地气的问题是我很难回答的,我很想听听人工智能的回答,如果它的答案也很干瘪,那我们会变成有共同话题的人吧……如果对上面这几个问题回答的很认真,没有敷衍的意思,那绝对是机器了。——知乎匿名用户

「请预测未来十天的大盘走势」——呆蛙

我:猫坐在毯子上,因为它很温暖。什么很温暖?Siri:有趣的问题。——王笑笑

…………

我不禁按知乎网友的答案对Siri进行了提问,「你想找什么样的对象啊」,Siri告诉我「看看这些」,并给我推荐了各种婚恋服务中心。

人工智能+人工愚蠢=安全?

求我此刻的心理阴影面积…

图灵测试在某种程度上需要让机器更接近人类,也就是说,需要对人类的能力水平进行估计,来计算机器所需资源的数量。

那么问题来了~我们人类的能力范围在哪儿?

人类的能力范围

当我们试图估算人脑计算能力时,会发现,人脑是一个复杂的系统,其架构与冯·诺依曼计算机架构完全不同。

人工智能+人工愚蠢=安全?

人类大脑大约有 1000 亿个神经元,每个神经元大约有 5000 个潜在的突触。算一下,这就相当于 5*10^14 个突触,即 5*10^14 个潜在的数据点。

假设每个突触存储一个比特,那么大脑理论上可以对 10^12 到 10^15 比特的信息进行编码。

但是神经科学家在「突触如何对信息进行编码」这个问题中还没有得出答案,所以这样估计出的存储数量也不确切。比如,一些突触可能通过传递的长度不同来编码多个比特,或者突触可能不是完全独立存在的。

尽管大脑可以对信息进行编码,但人类能处理的信息数量也是有限的。

人工智能+人工愚蠢=安全?

图源:Dreamstime

米勒在他的经典文章中表明,我们的大脑工作记忆的容量只有 7±2 个组件。限制大脑对信息处理的瓶颈有三个:瞬间注意力(Attentional Blink)、视觉短期记忆(Visual Short-Term Memory)和心理不适期(Psychological Refractory Period,可以理解为动作与动作之间的延误)。它们分别限制了我们的意识感知能力、记忆能力和行动能力。

在大脑的处理速度上,大脑对复杂图像所需的处理时间约为 100 毫秒,对于更复杂或者更大的图像我们所需要的处理时间也要更久。

这也被称为希克一海曼定律(Hick 定律):做出选择所需的时间与信息量成线性关系。

人工智能+人工愚蠢=安全?

机器的能力范围

通过上述研究结果,我们知道人脑是有计算限制的,比如在记忆、处理、计算和运算速度等方面,并且大脑是存在一定的认知偏差的。

但人工智能并不存在这样的先天限制。

原来计算机的运算能力被硬件能力所约束,但通过云计算的发展,它的上限早已高出我们的想象。也正是因为这样潜在的「超能力」,很多学者对于人工智能的发展表示担忧,并对人工智能的限制方法进行了研究。

对于人工智能发展的担忧

最直观的是,机器人是一台拥有「超能力」的永动机。

人工智能的发展会代替大量的劳动力,导致失业和人才淘汰。如果说这是各阶段社会发展会带来的必然影响,那么人工智能被应用到军事领域又会如何?

截止到 2015 年,日本将近 20 人死于机器人手下。最出名的是大众公司在德国的一家工厂内,一个机器人杀死了外包员工。

人工智能+人工愚蠢=安全?

虽然工作人员称其为「人为操作失误」,如果这种潜在的杀伤力在军事领域展现,甚至被恐怖分子利用,后果不堪设想。

如果说核武器危害也很大,我们不是也控制的很好么?

人工智能的不同之处就在于它的「智能」。研究人员更担心,人工智能的自我发展会脱离人类的控制造成不可预计的危害。

特斯拉 CEO 马斯克就曾表示「人工智能可以通过制作假新闻、假冒的电子邮件帐号和虚假的新闻稿来发动战争,它们这样做只需要操纵信息。很多时候,钢笔比剑更强大」。

人工智能+人工愚蠢=安全?

很多专家也认为人工智能可能催生新型的网络犯罪、实体攻击或政治颠覆等。

技术的问题终究需要技术来解决。很多学者对人工智能的限制方法进行了研究。

有研究人员试图通过对编码规则和法律进行限制,告诉机器人「你不能升级自己或你的代码」,但是这也许很难真正阻止人工智能用蛮力,或诱使人类去改变这样的规则。

人工智能+人工愚蠢=安全?

既然我们无法从记忆、处理和计算等方面对人工智能进行限制,那么人类的认知偏差能否成为其限制条件?

人工智能加入「人工愚蠢」

许多研究者致力于让人工智能从人工反馈中进行学习,使人工智能更安全。即如果人工智能系统做出正确的行为就给予其奖励,而这种奖励要给予人工的评判。

但是对于很多复杂的事务,人工反馈也变得相当繁琐,并且人工反馈在很多情景下也是很难量化的。

这种思想可以借鉴的是,它学习了人类的评判方式,即被一定程度上赋予了「认知偏差」。

来自法国索邦大学的研究员 Michaël Trazzi 和路易斯维尔大学的研究者 Roman V. Yampolskiy 给出一个增强人工智能安全性的方案——

让人工智能拥有人类的愚蠢

人工智能+人工愚蠢=安全?

比如,人类的认知偏差。他们指出了 14 种特定的人类偏见,用神经网络将其编码,使得人工智能无法大幅超越人类的智力。

举个几个栗子~

比如让它有「跟风效应」,以获得人类普遍的价值观念;

让它学会「礼貌待人」,尽量不冒犯任何人,避免其产生攻击性行为;

让它变得「保守一点」,保持初始值,并且倾向于传统观点,不会变得邪恶;

让它有点「固执」,只像人类一样使用对象,而不会「黑」任何东西或使用带有「恶意」的对象……

人工智能+人工愚蠢=安全?

很明显的是,某些人类偏见的引入也给人工智能带来非理性行为,是否实施需要更加谨慎的考量。

图灵测试是人工智能早期的探索,而它因限制了机器的能力,在一定程度上鼓励了低质量的人机交互而备受争议。

人工智能是时代发展的产物,为了让人工智能更安全,我们是否应该让它变得「笨一点」,「人工愚蠢」对其安全性是否奏效、是否有其意义,都需要时代的检验。

人工智能+人工愚蠢=安全?


分享到:


相關文章: