可怕,人工智能竟然自己“学坏”

不知道各位对人工智能是什么看法,个人认为人工智能是按照人类下达的指令操作,并进行一系列行为,但事实上人工智能也有自己的小聪明呢。

斯坦福大学和谷歌曾联合进行的一个人工智能项目,在项目过程中,设计者发现了一个令人惊讶的现象,他们的软件在执行任务时竟然学坏了,它竟然知道通过"找捷径"、"耍小聪明"欺瞒人类,而不是像人类以为的、它们只会按照人类的指令去完成任务。

可怕,人工智能竟然自己“学坏”

设计者们在研发一个名为CycleGAN的人工智能网络,旨在把卫星图转变为街道地图,再从街道地图转换回卫星图。设计者对每次转换的结果按照原始图和转换图的匹配度、街道地图的清晰度等方面打分,以"训练"这套软件不断提升完成这项任务的能力。测试结果显示这个人工智能产品表现得相当出色。人工智能和普通的电脑程序有很大不同。电脑程序是可以通过程序调试明确看到其每一步的运行情况。而人工智能软件其内部究竟如何运作的,设计者是难为完全清楚的,有点类似"暗箱操作",只有通过对其完成结果进行评估或调整指令要求与软件进行"沟通"。

据科技网报导,研究者发现卫星原图上所有屋子的房顶天窗,都不在生成的街道地图上,但是再转换回卫星图时却一个不少。是的,这正是设计师所要的,人工智能完成这项任务的出色度令人类惊叹,然而当设计者探究到它是如何做到这一点时,却不知道该是"佩服"还是应该感到担忧?细心的研究者们发现,这套软件竟然自己"想"了个办法,把屋顶天窗的信息用一种人类眼睛分辨不出的颜色信息存储在其生成的街道地图上,而在返回去生成卫星图时,电脑通过这些颜色信息就能还原出所有的天窗。这令研究者们大为诧异,因为这不是设计师"教"给它的,设计师只告诉它任务的描述,并对完成的结果打分,以为人工智能系统会通过不断的"练习"踏实地从零开始还原卫星图。

可怕,人工智能竟然自己“学坏”

其实这种技术我们已经运用很长时间了,这种技术叫做"隐写术",比如我们人民币上的水印,相机照片上拍摄的时间地点等信息等,都是这种技术的不同实现方式。这是人类需要的合理用途。但是在这件事情上,显然有点不同——这项发现向设计者们提出了一个问题,我们不仅要告诉人工智能做什么,同时还要告诉它们什么是"不能做"的。接下来设计者面临的一个问题是需要"收紧"指令条件,纠正这个问题。

其实,人类自身就是不完美的,人类造出的人工智能是不是可以理解为人类的"镜像",就像我们的孩子,不也会在成长的过程中自己"学坏"吗?或者从另一个角度理解,设计者通过给人工智能设定行为约束和条件,是不是也类似于我们日常生活中的法律条款?我们的法律条例其实已经比较完备了,但是违法犯罪现象依然存在,并没能解决对人类行为约束的问题。

可怕,人工智能竟然自己“学坏”

自从去年阿尔法狗在围棋大战中打败人类,人工智能现在依然是活跃在科技领域的核心力量,但是我们现在看到的只是人工智能的冰山一角,如果未来随着人工智能的不断进步发展,或者等人工智能并有了自己的思维之时,它既可以替我们人类工作,同样也也不排除有将人类取而代之的念头,试想真的有那么一天,机器人如果试图毁灭人类,那这场战争的结局还真是难以想象。人类究竟该如何驾驭人工智能,人工智能到底能走多远……

人工智能是天使还是魔鬼?您觉得呢?


分享到:


相關文章: