我真的要考虑嫁给机器人么

人工智能(AI)的历史可以追溯到古代 - 智能机器人出现在许多古代社会的神话中,包括希腊语,阿拉伯语,埃及语和中国语。 今天,人工智能领域比以往任何时候都更加充满活力,有些人认为,我们正处于可以不可逆转地改变人类社会的发现的门槛上,无论好坏。

然而,要真正理解AI是什么,你需要欣赏现在抛出的行话。 例如,您需要知道人工智能与机器学习不同,尽管它经常被用作机器学习的同义词。 要记住的主要区别在于机器学习只是计算机可以学习技能的过程,而人工智能是指能够“自我思考”而不需要编程的计算机。

我真的要考虑嫁给机器人么

1.人工智能的发展速度比你想象的要快,并且呈指数级增长

人类倾向于直线思考,但技术进步的每个方面实际上都在加速 - 包括人工智能。 未来学家Ray Kurzweil称之为“加速回归法则”,并提出证据证明在2000年至2014年期间取得了相当于整个20世纪收益的进展。他还认为,相同的数额将在2021年之前再次发生。 进步的指数性,忽视了思考事物将以同样的速度不断提高的内在倾向,这是掌握未来科学进步有多快的关键。

我真的要考虑嫁给机器人么

2.你每天都在使用人工智能

Siri,Google Now和Cortana是人工智能的明显例子,但AI实际上就在我们周围。 它可以在真空吸尘器,汽车,剪草机,视频游戏,好莱坞特效,电子商务软件,医学研究和国际金融市场中找到 - 还有许多其他例子。 约翰麦卡锡最初在1956年创造了“人工智能”这个术语,他曾打趣说:“一旦它奏效,就再也没有人称它为人工智能。”

我真的要考虑嫁给机器人么

3.机器人肯定会代替你现在的工作

是的,我知道一份工作或许对你来说很重要,但未来你所做的工作要么已经自动化,要么很快就会完成。 多久? 莱斯大学的Moshe Vardi教授表示,大多数工作将在30年内由机器人完成,导致失业率超过50%。 这可能听起来很糟糕,但许多研究该领域的学者认为,技术失业将打开通向未来的大门,工作是人们为了快乐而做的事情,而不是出于必要。 普遍基本收入等提案是社会支持结构的开端,最终可以使这成为现实。人工智能专家尼克博斯特罗姆在其出色的书“超级智能:路径,危险,策略”一书中分类了超级智能可以运作的三种方式。 “神谕”能够以很高的准确度回答问题。 一个“精灵”会做任何被命令做的事情然后等待下一个命令,而“主权”将被分配一个总体目标,然后被允许在世界上运作并决定如何最好地实现该目标。 由于上述原因,前者比后者更不可怕。

我真的要考虑嫁给机器人么

4.大约一半的AI社区认为,到2040年,计算机将像人类一样聪明

2013年,两位研究人员调查了数百名AI专家,当时他们认为人类级人工智能有50/50的可能性。 答案的中位数是2040年 - 距今仅24年。 英国人的平均预期寿命是82岁,这意味着今天58岁的人有机会在他们的一生中看到计算机像人类一样聪明。 作者詹姆斯·巴拉特最近的另一项研究只是询问研究人员何时会实现人类级别的人工智能 - 到2030年,2050年,2100年,2100年之后或从未实现。 最大的群体,42%的受访者,在2030年之前说过。

5.许多聪明人认为将人工智能发展到人类水平是一件危险的事情

一旦机器像人类一样聪明,就会发生许多令人担忧的事情。 人工智能开发在这一点上停止的可能性很小(人工智能几乎肯定会开始改进自己),许多非常聪明的人 - 包括斯蒂芬霍金和伊隆马斯克 - 认为这种情况确实非常可怕。 “如果我不得不猜测我们最大的生存威胁是什么,那可能就是这样。 所以我们需要非常小心,“马斯克在最近的一次采访中说。 “我越来越倾向于认为应该有一些监管监督,可能是在国家和国际层面,只是为了确保我们不做一些非常愚蠢的事情。”

我真的要考虑嫁给机器人么

6.一旦人工智能变得比人类聪明,我们就很难理解它

蒂姆·鲁斯特在“等待但为什么”这篇关于人工智能的大篇文章中解释得非常好,所以我在这里引用他的话:“黑猩猩可以熟悉人类是什么,摩天大楼是什么,但他' 我永远无法理解摩天大楼是由人类建造的,“他写道。 “即使机器试图向我们解释,我们也永远无法理解[超级智能AI]可以做的事情 - 更不用说自己做了。 它可以尝试多年来教会我们最简单的了解它所知道的事情,并且努力将毫无希望。与我们在科幻和电影中看到的相反,AI不可能是邪恶的。 这是一个人类的概念。 人工智能可以做出无法形容的可怕事情,但它并不是出于纯粹的邪恶 - 它只是因为这就是它被编程(有意或无意)所做的事情。 斯蒂芬霍金最近在Reddit的AMA上解释了这个概念。 “超级聪明的人工智能将非常善于实现其目标,”他说,“如果这些目标与我们的目标不一致,我们就会陷入困境。”

我真的要考虑嫁给机器人么

7.人工智能可能是我们从未遇到过外星人的原因

更进一步,埃隆马斯克将人工智能描述为对人类的“存在主义威胁”,这意味着它可以完全消灭人类与宇宙。 这与“大过滤器”的想法联系起来,这种过滤器可以杀死达到一定技术发展水平的外来文明。 我们从未遇到外星人的原因完全有可能是因为他们在建造能够进行星际旅行的宇宙飞船之前发明了人工智能,而这一发现导致了它们的灭绝。

我真的要考虑嫁给机器人么

人工智能研究的世界大致分为乐观主义者和悲观主义者。 乐观主义者希望我们有一天会发明一种能够解决我们可以想象的每一个问题的超级智能,并将我们带入一个乌托邦的未来,满足人类的所有需求,每个人都过着幸福的生活。 悲观主义者担心,沿途的一个小错误将导致人类迅速结束 - 例如,人工智能编程解决气候变化问题,确定人类是这样做的头号障碍。 当然还有两种场景 - 像黑客帝国这样的现实,人类在完美幸福的状态下被培养为燃料来源,在那种规模上存在?

随着人工智能的不断进步,基本上到本世纪末,面对我们的是灭绝?还是 不朽?


分享到:


相關文章: