再见霍金!对于人工智能,这位伟人给世人留下这样的忠告

人工智能的发展会严格遵循"机器人三大定律"吗?

3月14日,伟大的英国著名物理学家和宇宙学家斯蒂芬·威廉·霍金(Stephen William Hawking)逝世,享年76岁。霍金来自宇宙,现在回到了他的浩瀚星辰。

再见霍金!对于人工智能,这位伟人给世人留下这样的忠告

霍金是继牛顿和爱因斯坦之后最杰出的物理学家之一,被世人誉为"宇宙之王",作为剑桥大学数学及理论物理学系教授,当代最重要的广义相对论和宇宙论家,荣获英国剑桥大学卢卡斯数学教席,这是自然科学史上继牛顿和狄拉克之后荣誉最高的教席。

霍金的子女在一份声明中说:"我们亲爱的父亲今天去世了,我们深感悲痛"。声明称,霍金"是一个伟大的科学家,一个不平凡的人,他的研究和成就的影响将持续多年"。

1942年1月8日,霍金在英国牛津出生,父亲弗兰克·霍金毕业于牛津大学医学院,母亲伊莎贝尔·霍金同样毕业于牛津大学,专业为哲学、政治经济学。霍金本人毕业于牛津大学和剑桥大学,并获得剑桥大学博士学位。

再见霍金!对于人工智能,这位伟人给世人留下这样的忠告

1963年,21岁的他不幸被诊断患有肌肉萎缩性侧索硬化症即运动神经细胞病。当时,医生曾诊断身患绝症的他只能活两年,可他一直坚强地活了下来。

霍金的主要著作有《时间简史》、《果壳中的宇宙》,主要研究领域是宇宙论和黑洞。不过,近年来霍金在人工智能等领域的研究也值得关注,今天我们在缅怀这位伟人的同时,来看看最近几年里,他是如何看待眼下大热的人工智能(AI)的。

人工智能这门学科发展到今天已经超过60年时间。

1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了"人工智能"这一术语,它标志着"人工智能"这门新兴学科的正式诞生。

2017年12月,人工智能入选"2017年度中国媒体十大流行语",热度可见一斑。

简单来说,对人工智能的定义大多可划分为四类,即机器"像人一样思考"、"像人一样行动"、"理性地思考"和"理性地行动"。

2014年的霍金:人工智能可能是人类历史上最后的事件

2014年5月,在观看了德普主演的新片《超验骇客》后,霍金在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。

再见霍金!对于人工智能,这位伟人给世人留下这样的忠告

电影《超验骇客》剧照

霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook。

他说:"人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。"

霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。

他说:"人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。"

霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。

当年的6月16日晚,霍金出席了美国HBO频道的"Last Week Tonight"节目,并与主持人约翰·奥利弗(John Oliver)展开了"深刻而有意义的对话"。

当晚,霍金非常肯定地对主持人说:"人工智能在并不遥远的未来可能会成为一个真正的危险。"

到了2014年12月的时候,霍金在接受英国广播公司(BBC)的采访时说,"制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。"

这让霍金再次登上英国各大媒体头条,激起人们对人工智能黑暗的、反面乌托邦式的假想。

从上世纪60年代末的科幻电影《2001:太空漫游》,一个名叫哈尔9000(HAL 9000)的智能机器人发生错乱,在前往木星的太空船上对人类发起攻击;《我,机器人》中,一个多才多艺的人形机器似乎有了心灵;直到《终结者》系列,未来世界由机器人统治人类,反抗机器人统治的人类领袖被未来机器人追杀。

2015年的霍金:号召禁止人工智能武器

在这一年,霍金、特斯拉CEO埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克等上百位专业人士联名上书,号召禁止人工智能武器。

再见霍金!对于人工智能,这位伟人给世人留下这样的忠告

公开信称,如果任何军事力量推动人工智能武器的开发,那么全球性的军备竞赛将不可避免。人工智能武器不像核能一样——需要高昂的成本和难以获得的原材料,一旦开发人工智能很容易在各军事力量中普及。

公开信说,人工智能武器的禁令必须尽快颁布,以避免军备竞赛,这更甚于"控制人口数量的意义"。

2016年的霍金:人工智能的崛起中产阶级或将大面积失业

2016年6月,霍金在接受美国知名记者拉里·金采访时说,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。

他认为,有益的人工智能将出现在人类生活的各方面。"想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。"

再见霍金!对于人工智能,这位伟人给世人留下这样的忠告

到了10月19日,剑桥大学"莱弗休姆的未来智能中心(LCFI)"正式投入使用,霍金在庆祝典礼上发表了演讲。LCFI的一项重要使命是要化解AI风险,破解AI难题。

在当天的演讲中,霍金说:"对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。"

霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。

"我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。"霍金说。

这年的12月,在英国《卫报》的一篇专栏中,霍金表示:"工厂的自动化已经让许多传统制造业工人失业了,而人工智能的崛起会将失业范围扩大到社会上的中产阶级。未来,留给人类的只有护理、创新和监督等少数岗位了。"

如果这一趋势继续下去,会有什么后果吗?霍金认为机器人抢走人类工作后会造成社会更大的不公,自动化将"加速扩大全球范围内已经日益严重的经济不平等,互联网和各种平台让一小部分人通过极少的人力获取巨大的利润。这是不可避免的,这是一种进步,但也会对社会造成巨大破坏并最终"撕裂"整个社会"。

此外,互联网让穷人也见识到了上流社会的生活方式,一旦他们与其自身情况作对比,就会让无尽的怒气在整个社会生根发芽。

2017年的霍金:最后的警告

2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,"人工智能进一步发展便可能会通过核战争或生物战争摧毁人类。人类需要利用逻辑和理性去控制未来可能出现的威胁"。

4月,2017全球移动互联网大会(GMIC)在北京召开,霍金为这次大会发来了一个视频,进行了题为《让人工智能造福人类及其赖以生存的家园》的主题演讲,在这次主题演讲中,霍金再次提及了人工智能的问题,他认为人工智能的崛起很有可能导致人类文明最终走向终结。

在11月份举办的第五届腾讯WE大会上,霍金以远程视频的形式亮相WE大会,并谈论了对人工智能的一些看法。

在视频中霍金认为,人类很有可能会造出超级人工智能,这些人工智能程序能够全面超越人类,并有可能完全取代人类成为一种新的生命物种。霍金表示,"我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能。这就会带来一种能够超越人类的全新生命形式。"

2017年12月13日,在长城会举办的"天工开悟,智行未来"活动中,霍金表示,现在还不能确定,人工智能的崛起对人类来说是好是坏,但可以确定的是,人类要竭尽全力,来保证人工智能的发展对于人类及环境有利。这可以说是霍金在公开报道中最后一条关于人工智能的看法了,也可以说是最后的警告。

再见霍金!对于人工智能,这位伟人给世人留下这样的忠告

电影《我,机器人》剧照

在《我,机器人》一书中,艾萨克·阿西莫夫提出了著名的"

机器人三大定律"

第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;

第二定律,机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

可以说,阿西莫夫的这"三大定律"不断激发了人们对于人工智能安全性的新思考。技术最终将解放人类,前提是这个技术是受控可控的,必须牢牢地掌握在人类自己手中,而不是失控的技术,否则霍金的那些悲观预测也许真的要应验。


分享到:


相關文章: