专家提出:人工智能比你想象的更危险

7月份,特斯拉CEO马斯克联名两千多位AI专家,签了一份承诺书,内容是永远不开发AI杀人武器。这么做有两个理由,一是不该把生杀大权交给机器;二是致命AI武器的存在,会让个人和国家承受危险的动荡。虽然这么做的意图是好的,但是牛津大学的学者莫瑞奥萨瑞·塔迪欧(Mariarosaria Taddeo)认为他们忽视了静止的AI带来的风险。公众号“量子位”编译了塔迪欧的观点。

专家提出:人工智能比你想象的更危险

美军曾经把AI分成两种:一是移动的AI,也就是依托于实体机器人的AI,比如无人机、自动驾驶的军舰;二是静止的AI,就是仅仅存在于软件系统的AI。而对战争来说,不仅只有硬碰硬,还包括网络世界的暗潮汹涌。塔迪欧觉得,后者才更需要重视,“静止”不代表不危险。比如,如果有人能利用AI造成全国范围的停电,或者供暖系统瘫痪,就可能导致非常严重的后果。虽然目前还没有发现AI直接造成物理伤害的事件,但不代表以后不会有。毕竟AI正在飞速普及。塔迪欧认为,社会的运转越依赖AI,系统之间的冲突越可能带来物理伤害。当AI与AI之间有了自主打击、自主防御的行为,就算没有实体机器人,局面还是有失控的可能。

专家提出:人工智能比你想象的更危险

如今已经有很多国家在建立自己的AI防线了,但国际上仍然没有法规能够规范网络防御 (Cyberdefence)行为。塔迪欧在《自然》杂志写文章建议,网络防御要分三步走:第一步,划定法律界限;第二步,在友好邦国之间,测试防御策略;第三步,建立监管机制,强化法规执行。

专家提出:人工智能比你想象的更危险

希望以上观点对你有启发。


分享到:


相關文章: