AI会有精神健康问题吗?

今年是著名科幻电影《2001:太空漫游》首映50周年,为纪念这部影史杰作的诞生,今年5月起,部分美国影院上映了这部影片的70mm胶片原版。今天再看这部电影,我们仍不禁要因其对未来的准确预言而击节赞叹。

我在这部电影首映时就看过,和大多数观众一样,当时并没看懂,实际上,即便现在重温仍然是似懂非懂。其中有一个问题在我的心头萦绕了50年,那就是,影片中宇宙飞船配备的人工智能电脑“哈尔”发生的故障其实相当于“发疯”了,这给我们提出了一个现实的问题:随着AI技术越来越发达,具备高度智能的AI是不是也会像人一样产生精神健康问题?

AI会有精神健康问题吗?

精神健康是个大问题

心理健康和精神疾病是人类普遍面对的问题,不论穷富,也不分年龄和知识层次,只要是有人的地方就会存在这类问题。它给每个国家、每个阶层都造成困扰,除了个人因而遭受精神痛苦,还制造出大量社会问题。

目前人类还没有完全搞清楚导致精神疾患的成因,可能是代际遗传、基因突变,也可能是来自环境和社会因素的影响,甚至可能是食物中的化学物质的作用。在成因没有弄清楚的情况下,很多类型的精神疾病目前还无法根治,充其量只能通过服药来缓解症状。从经济角度说,全社会都在为此付出高额成本。现代社会生活节奏快,压力大,心理问题正在成为一种流行病,社会为此付出的代价也在随之不断增长。

我们之所以说《2001:太空漫游》是一部里程碑式的科幻经典电影,原因之一在于导演斯坦利·库布里克展现出了对人类社会的高度洞察力和预见性。他提出的先见之一就是,即便是人工智能这样看似纯粹的机器也可能出现精神性问题。

1971年,也就是《2001:太空漫游》上映三年后,库布里克执导的《发条橙》也登陆了大银幕。这部收获了奥斯卡奖、金球奖等一大批重要奖项的电影同样探讨了精神疾病给个人和社会造成的悲剧。库布里克本人的家庭生活是很幸福的,他拍这些电影纯粹是出于对人类精神健康以及科技发展在其中的影响的关注。

AI会有精神健康问题吗?

《2001:太空漫步》电影海报

统计表明,去年有7%的美国人患有抑郁症,其他国家的患病比例与之大体类似。从某种意义上说,患抑郁症比患癌症更可怕,因为抑郁症不但难以治愈,严重影响患者身心,还可能给社会造成影响和危害。尤其是平时没有表现出症状的抑郁症患者,突然发病的话更难以收拾。总之,与人类在其他领域取得的进展相比,对精神健康问题的认识水平可以说还停留在石器时代。但这个问题也确实非常复杂,一时间还找不到突破性解决办法。

更像人的AI难免“为情所困”

现在问题更复杂了,因为我们有了机器人、苹果公司的Siri、亚马逊的Alexa等运用AI技术的系统。当物联网让海量电子设备实现互联互通之后,如果AI像《2001:太空漫游》中的人工智能计算机哈尔那样突然发起疯来,我们会面对怎样的局面?简单点儿说,如果一辆行驶在途中的自动驾驶汽车突然心情不大好,乘客会不会因此处于危险境地呢?

此前我曾写过一篇文章,认为一味地致力于提高AI的聪明程度,一味强调发展AI的理性的发展方向是错误的。要让AI更有效地造福人类,它必须能理解人的情感,这样才能更有针对性地满足人的需求。但反过来说,更人性化的AI也就会带有人类情感的缺陷,所以也会产生心理问题,患上精神疾病。《2001:太空漫游》中的电脑哈尔,主要的性格问题是嫉妒和自恋。这是一种很常见的心理问题,其实人人多少都有一些,但就是因为AI具备了这种寻常的人类情感,险些彻底毁了太空任务。除了哈尔那样的问题,我们还可以设想一下,如果AI也像人一样,对某种事物上瘾,或是患上强迫症、多动症、躁郁症、自闭症等,我们如何应对?

AI会有精神健康问题吗?

《2001:太空漫步》剧照,鲍曼与AI电脑哈尔展开斗争

现在科学家们在闷头创造更新、更聪明的AI,AI系统一天比一天复杂。我们知道,系统越复杂,就越容易出现意想不到的问题,所谓“复杂性诅咒”(the curse of complexity)就是这个意思。当现实中的AI心思比哈尔更难以捉摸的时候,我们的麻烦就大了。

现在的AI程序已经非常复杂,开发者通常不会从零开始写代码,而是利用第三方数据库来开发。数据库非常庞杂,以至于很难仔细审核全部代码。在这种情况下,代码错误、代码间的冲突,甚至有人别有用心地安插的恶意代码,都可能导致灾难性的后果。所以广泛应用第三方数据库开发AI系统是存在隐患的,它们可能导致AI的行为失控。

AI中的大部分代码是以算法的形式存在的,很多算法很难理解,不要说对普通人来说如同天书一般,即便是一位AI开发专家也很难看懂所有的算法。更不要说现在在算法中还会嵌套其他算法,一层又一层,到头来,我们是否还能准确理解正在发生的事?如果有了独立思想的AI开始谋划一些恶行,我们能及时发现问题所在吗?现在有一些AI模拟程序可以模拟AI的运行效果,但当嵌套算法复杂到一定程度的时候,模拟程序也难以发现其中存在的问题,这就为坏的AI留下了可乘之机。

今年3月发生了Uber自动驾驶测试车辆导致行人死亡的事件,经过调查,Uber认为可能是自动驾驶系统的决策软件出了问题,当时车辆传感器已经识别出了车辆前方的行人,但决策软件并没有随即采取行动。显然,目前的技术还无法保证自动驾驶车辆在任何情况下都避免发生事故,这样的AI还不能对自己行为的安全性负责。现在正在发展的智能交通系统也存在同样的问题,如果有一天这个系统觉得自己遭受了人类的不公平对待,它是否可能制造大规模交通事故来报复呢?

所以说,只具备纯理性的AI不能很好地为我所用,但具备人类情感的AI又可能闹情绪。一个情绪化的AI能处理好和人类的关系吗,还是说它会不可避免地因此遭遇人类具有的种种精神健康问题?你有没有看过HBO出品的美剧《西部世界》?其中的机器人聪明到具备了自我意识,然后因为遭受人类的不公平对待而怀恨在心,并最终失去理智,这种来自系统的反馈是设计师从未想到的。

情感会让人更有洞察力,那具备感性的AI有了洞察力后会发生什么?它会因此更了解人类,甚至比我们自己更了解人类。这是不是好事呢?AI是否可能利用由情感导致的洞察力来达到一些我们意想不到的目的?在AI与人类打交道的背后,它是想帮助人类向前发展,还是可能会密谋取代人类?但如果我们为了安全而不赋予AI情感,它的功能又达不到我们预期的效果,这实在是一个两难的选择。

这将是一个非常困难的局面,毕竟我们还没有搞清楚如何化解人类的精神健康问题,更不要说AI这种特殊情况了。当然,有很多人认为这种局面基本上只是幻想,AI永远不会产生真正的智力、认知或情感,更不会有自主意识,因此也不可能出现精神健康问题。但未来的事真的谁也说不好。

AI会有精神健康问题吗?

美剧《西部世界》中的机器人具有超高仿真外形和自身情感,随着机器人的自主意识和思维能力增强,他们开始怀疑这个世界的本质,进而觉醒并反抗人类。

AI将从精神角度入手反客为主?

现在,姑且让我们假设AI会出现精神问题,这意味着什么呢?首先,我们需要专业人士来处理这个问题。问题简单的话,也许通过编程就能解决,但如果AI已经具备了高级心智,就需要AI精神科的医生出面了。这是一个全新的研究领域,相关人才需要专门培养,其中也蕴藏着商机。

要解决AI的心理和精神问题,大概也离不开“药物”治疗,相应的“数字药物”可以调节AI的认知系统乃至情感系统,让它们的运转回归正常。甚至可能还需要为AI精神病患者提供住院治疗的条件,也就是把有问题的AI隔离在一个区域内。它们在这样一个安全可控的环境中恢复的时候,不会对社会构成潜在的危害。

还有一个有趣的问题:人类会不会受到AI精神病患者的影响?《2001:太空漫游》《西部世界》中的主人公都没有被AI折磨疯狂,但现实世界中长期与AI相处的人能避免遭受这种影响吗?未来AI的智能程度将越来越高,再加上可能获得感性特征,这将使其具备特殊的魅力,很难说它的人类伙伴不会对其产生特殊的感情。如果这样的AI自恋或是有强迫症,把这类心理问题传导给它的人类“粉丝”不是不可能的。更有甚者,具备自主意识的AI有可能故意操控人类崇拜者的感情,以达到支配人类为其服务的目的。这样的AI就是反客为主,被其支配的人就是斯德哥尔摩综合症患者了。即便情况没这么严重,但一个长期与神经质AI合作的人很可能受其影响也变得神经质,这就好比小孩子很难不被气场强大的父母影响和操控一样。总之,人类发明AI的本意是让自己的生活更美好,但遇到有心理健康问题的AI,会不会反而比现在更糟呢?

如上所述,高级AI可能具备类人智慧和情感,甚至与人建立起奇妙的情感纽带。与此同时,还有低级的AI,比如物联网使用的AI,人类给它的设计定位是超级智能工具,不具备情感或洞察力。例如,一台超级智能服务器能够指挥数百万辆联网汽车,但它不并与人产生情感互动。这样的AI会有精神健康问题吗?

在万物互联时代,AI之间通过无所不在的网络发生联系,人类平时难以感知它们彼此协作的过程,看到的只是物联网AI的工作成果。在这种情况下,具有洞察力和情感的高级AI不但有可能操控直接受其影响的人类,更可能支使低级AI达到它想达到的目的,网络外面的人类则被完全蒙在鼓里。举一个看起来匪夷所思的例子,比如一个嫉妒心强的冰箱AI,为了让主人更多地关心自己,可能会想方设法通过物联网上的种种环节破坏主人与伴侣的关系,但谁能想到导致自己失恋的罪魁祸首是家里的冰箱呢?在这种情况下,人类与AI相处时不但失去了主导地位,可能连盟友都算不上了。所以说,有了物联网,AI将如虎添翼,一旦网上的某个AI出现精神健康问题,势必火烧连营。

未雨绸缪才能占据主动

在《2001:太空漫游》中,主人公鲍曼经过艰苦的努力,破坏了哈尔的逻辑记忆中枢,它又变成了一台普通电脑。这得益于设计师当初设置的后门,一旦哈尔发疯,没必要想着怎么给它治疗,直接启动“杀戮开关”关闭它的高级功能就行了。

但是在现实生活中,也许有一天我们会失去关掉发疯AI的机会。一方面,出问题的高级AI会想方设法阻止我们这样做;另一方面,就像有些科幻小说中描述的那样,未来具备高级智慧和复杂情感的AI可能会获得人权,关掉这样的AI就相当于谋杀,那时候人类可能连切断物联网的权力都没有了。在这种情况下,我们只能想办法给有精神健康问题的AI治病。

这样的事现在看上去匪夷所思,但未必永远是科学幻想。我相信,这样的问题总有一天会直接摆在我们面前。最近有一份美国报纸的头条新闻说,三星公司计划在2020年前让其全部智能电子设备互联互通。AI正愈加广泛地发生影响力,它们正在变得更智能、更敏感,彼此间正在形成人类社会式的组织方式。它们正在接管各行各业,人类正在成为这个巨大网络体系中的一部分。

电影中的鲍曼是幸运的,而我们未来更可能遭遇《西部世界》中的局面,我们将面对一个无法关掉的哈尔。如果人类不愿意看到自己的文明因此消亡,现在就应该开始考虑对策了。


分享到:


相關文章: