霍金生前做出嚴厲警告,這類武器可能將人類帶向毀滅,不是核武器

霍金有“宇宙之王”之称,是继牛顿和爱因斯坦之后最优秀的物理学家之一,他的身体虽然不能动弹,但思维却飞向了宇宙深处,他虽然不能发音,但却提出了一系列卓越的理论,包括奇性定理、黑洞面积定理以及无边界宇宙理论。如今他虽然已经去世了,但他的成就将永垂不朽,而他生前对人类做出的警告至今振聋发聩。

霍金生前做出严厉警告,这类武器可能将人类带向毁灭,不是核武器

如今各国都在大力发展人工智能,然而霍金早在2013年的时候就已经发出警告:各国要谨慎发展人工智能,这将是人类发展最大的潜在威胁。在霍金看来,人工智能正在以爆炸性的速度发展,人类创造了人工智能,但人工智能极有可能会成为带人类走向灭亡的致命武器,甚至比核武器更加可怕,一旦有一天人工智能失去控制,一旦机器人有了思想,那么人类将会面临极其危险的境地,甚至会沦为奴隶,机器人将成为人类的最大敌人。

霍金生前做出严厉警告,这类武器可能将人类带向毁灭,不是核武器

或许你会认为霍金的警告是危言耸听,这样的情景只会发生在各种科幻电影之中,永远也不可能成真。然而事实是,随着人工智能的迅速发展,如今我们的生活中已经离不开它,比如智能手机、无人驾驶汽车、扫地机器人等等,这些应用人工智能的东西正在潜移默化地改变着我们的生活方式,以智能手机为例,当我们打电话时,只要说打什么人的电话,它就会自动拨号,至于无人驾驶汽车则更加智能,只要我们说出目的地,它就能够以最安全、最迅速的方式到达目的地。

霍金生前做出严厉警告,这类武器可能将人类带向毁灭,不是核武器

任何事物都是一把双刃剑,人工智能也是如此,正如霍金所说,一旦人工智能失控,那么对于人类来说将会是一个巨大的灾难。这并不是危言耸听,早在2007年时,在美军的一次军事训练中,跟美军一起射击的机器人就突然失控将枪口对准了美国大兵,一旦发生在真实战场上,后果不堪设想。

霍金生前做出严厉警告,这类武器可能将人类带向毁灭,不是核武器

霍金认为,如今的人工智能发展尚且在人类的控制之下,是因为目前的人工智能产品的功能需要人类进行编码才能实现,不过当有一天机器人能够实现自主编码,那么它就失控了,如果将人工智能运用到武器装备上,那么又会发生什么样的情形?飞机自己起飞、导弹系统自己启动,届时这些人类创造的人工智能武器装备将成为人类的最大敌人,而科幻片中的场景也会成真!因为我们一定要高度警惕,审慎地发展人工智能性质的武器装备。


分享到:


相關文章: