道德护卫队也管不住AI的发展?人工智能该何去何从

道德护卫队也管不住AI的发展?人工智能该何去何从

当今社会,科技的飞速发展给我们的社会带来了无比美好的生活,在我们进步的同时,当然也遇到了各种科技给我们带来的危害,航天飞机的空难,无人驾驶的事故还有各种的网络病毒等等安全问题。

短短几十年,我们在人工智能的领域发展越来越快,机器人也越来越智能。从当初的巨型计算机的诞生到现在AI机器人,智慧医疗,智能围棋大师阿尔法狗,不断地超越人类的极限。

道德护卫队也管不住AI的发展?人工智能该何去何从

从道德上建立的机器人意味着什么?

面对这种问题,我们最先想到的就是,制造商应该思考所有可能的产出,以及其他人可能滥用其创作的所有方式。我们真的必须坐下来考虑后果,AI是我们设计的核心。

“如果科幻小说已经以各种方式探索人类和智能机器人或人工智能的共存问题,是不是有很多东西需要学习...?”

最近有很多人对AI给人类造成的危险提出尖锐的质疑,AI机器人变得更聪明,更聪明,更有能力,甚至可能 在某种程度甚至认定人类不应该存在地球上。但是,在家用电脑进入我们的生活之前,一些开创性的科幻作品也仔细研究了这种情景。

三大机器人的定律

最初材料我们可以追寻到1950年收集的阿西莫夫的三大机器人的定律。

在1940年的时候,当阿西莫夫写出了机器人学的定律时,第一批现代计算机才刚刚开发完成,而现在我们称之为计算机的时代还要再过20年。当然那时候是没有机器人也没有开发机器人的公司。那么这么提前的见解是什么样的三大定律?

  • 机器人不可以伤害人,或者当人类遭受危险而不作为

  • 机器人必须遵守人类给出的命令,除非这些命令与第一法则冲突

  • 一个机器人须保护自己的生存,只要不与第一或第二定律相冲突

    道德护卫队也管不住AI的发展?人工智能该何去何从

    最初提交的内容是:“如果你编写的AI不能打破阿西莫夫定律的更新和扩展版本,你就得考虑你是否有坚定的信心认为人工智能不会发疯并开始伤害人类?”

    阿西莫夫的粉丝,他写道:“最终我遇到了一篇文章,批评性地指出阿西莫夫使用'3 Laws'来驱动情节点,并且不没认真考虑为'基础知识'为机器人的行为。

    道德护卫队也管不住AI的发展?人工智能该何去何从

    此外,吉斯卡尔自己提出了“第四定律"。之后就有了新的阿西莫夫的机器人定律。

    新的阿西莫夫的机器人定律

    道德护卫队也管不住AI的发展?人工智能该何去何从

    不同观点

    Kazemi说:“我的大多数机器人都不直接与人类互动。我实际上非常谨慎地让我的机器人看起来尽可能不陌生人互动。如果一个看起来不太人性的、非常简单的机器人说了一些非常糟糕的东西 ,我要为此承担责任,尽管它并不会对对方造成的伤害。”对于像AI机器人这样的东西,创作者应该每天运行一百万次,尽可能多地阅读它们。只需浏览并找到你不喜欢的东西,然后回去尝试设计出来。


    里克舒曼认为,阿西莫夫的“机器人三定律 ”只适用于一个可以真正思考的综合性思维;目前没有产生任何东西,因此它不适用于 ......”

    道德护卫队也管不住AI的发展?人工智能该何去何从

    当今有的人认为三大定律是有漏洞的。大家或许也听到过一些人工智能的问题,有一天微软发现自己研究的2个AI机器人在用自己的语言聊天,他们紧急关闭了AI,还有要毁灭人类的Sophia智能机器人。霍金教授也对人工智能提出了警告。

    道德护卫队也管不住AI的发展?人工智能该何去何从

    道德护卫队也管不住AI的发展,那么大家的想法是什么?你认为阿西莫夫的机器人三定律可以确保安全的AI吗?

    道德护卫队也管不住AI的发展?人工智能该何去何从


    分享到:


相關文章: