如何应对AI (人工智能)?

创造精彩2017重整旗鼓


社会与国家应对人工智能,要面临困难的选择,它完全不同于以前任何一次技术冲击。

自从工业革命后,人类社会一直在经受创造性破坏,或者破坏性创造。新技术创造出一批就业机会,也毁灭了一部分人的生计。如果新就业机会多于旧的,而且赚钱更多,社会总体财富增加,那么社会就容易接受这种进步。反之社会就抵制这种进步。

当年汽车代替马车,破坏了马车夫马车行的生意。但是围绕汽车迅速形成一个产业链,总价值远大于马车,所以人类社会大约用十几年就普遍接受汽车。

相反的例子是农业机械。它产生于十九世纪末,欧美普遍缺乏劳力,所以它能够普及。50年代中国就想大力引进农业机械,早期人民币上就有女社员开拖拉机的形象。但是后来发现,当时城市无力吸纳普及农业机械后富裕出来的农村劳动力,所以就改为承包制。农业还是以手工劳动为主,直到最近机械化才在中国农村大规模出现。

人工智能很有可能更象后者而不是前者,它所破坏的就业岗位远大于它能提供的。同时其它科学领域也没有足够的进步提供大量就业机会。所以人工智能的普及造成了大规模的社会破坏。有人统计,自动化和人工智能让美国消失了两千多万个劳动岗位,远多于外包中消失的工作岗位。

但从微观社会也就是公司这个层面来看,如果能用人工智能他们就不会用人工,这个趋势不会变。所以很考验国家如何调控这个矛盾。现在还没有哪个国家解决这个问题。特朗普上台就是美国在这个问题上失败的表现。他代表着美国落后生产力,选民中有很多是自动化与人工智能淘汰的,几乎无望再就业。他们希望美国恢复到挖煤炼钢时代,与硅谷关系极差,并且有公开抵制高科技的言论。

这对中国也是个危险信号,因为人工智能很快也会大量破坏就业岗位,就象当年收割机破坏小农经济一样。马丁福特在《机器人时代》中估计,中国被人工智能威胁的岗位多达40%,远超美国的20%。这也好理解,我们本来就以低技术劳动力为多,现在他们一长大就遭遇人工智能,淘汰的可能性更大。

如果没有大量新的就业岗位创造出来,积累的失业压力如何释放必然会成为大问题。现在世界上对此还没有答案,我们也无法照抄西方经济学或者政策就能解决,他们自己都还不知道怎么办好。


科技文化郑军


在20年前的北京,有一批开电梯的女操作员。许多单位那种老式的大电梯,女操作员有把椅子坐着。人上来,女操作员就会问到哪楼,按开门关门和楼层纽。这种工作没有任何价值,但是就确实存在。为了部分人口的就业,这些单位也是拼了,给需要就业的关联人口安排了这种工作。

那是以前的事,人工智能出现后,原理是一样的,要敢于放开想象力。会出现很多象电梯操作员一样的职业。其实不需要你做什么,系统会安排好你的工作。

也许是整天刷APP,看够各种文章、视频,保持活跃的评论、点赞,就有钱收;也许是完成游戏任务,VIP来玩了,就去勇敢地挑战,然后死得精彩一些。或者和AI对战,接受羞辱。总之,IT与人工智能时代就算真的出现了大批“废材”,系统会找到安置的办法,因为这世界还是人说了算。

以后总有些工作是AI取代不了的。比如,人的主观存在、感性意识、情感发泄,AI是无法取代的。无论是踢球、广场舞,还是打麻将,表演起来。学会表达出来,表示自己还是个人,哪怕围观的是AI。大批的人会成为戏精。

如果以后注定是AI世界,那也可以选择成为带路党。学习去了解AI,开发AI,帮助AI发展壮大,取代越来越多的人。

除了废材、戏精、带路党,还有两种选择。一种是系统的一部分,一种是反抗者。以后即使是AI世界,在法理、技术层面,也会有一部分人和其它人不一样,例如拥有AI认可的系统股权。好好混,无论是通过花钱,还是成为资本家,还是技术入股,找机会获得这种股权。

如果接受不了安排,可以成为反抗者,在人类的保留地,过着不接受AI的生活。抗争之后,系统会给反抗者一部分生存空间,去除AI的影响,让人类自己管理。

从人性的角度,以后人们的出路就是这些了。个人总会被迫选择一种角色,无法拒绝。


风云学会陈经


(-东南偏北)

这个问题很有前瞻性,似乎大家都已把人工智能当做了未来的一种大趋势。如何适应人工智能时代,我们倒不如以此为基础来分析分析。

人工智能会威胁人类的哪些工作?

以前看过一项调查,说是60%以上的华尔街基金都在计划引入人工智能来炒股,这应该是真的。不过这不是问题的关键,问题是基金经理干嘛去啊?现在的基金经理如果还想着按照原来的方式去工作,那自然就得失业。事实上,据说现在基金经理的工资也在一路下滑,甚至滑倒了过去自己看不起自己的程度,让他们开始怀疑人生。

前面说的基金经理只是举的一个例子,但是说如果一定要对人工智能威胁的人类的工作进行一个归纳的话,那么人工智能淘汰的人类的工作,一定是缺乏创新性,且工作趋向重复性的工作。

也就是说,安全的工作符合以下特点:

1. 有非常高的创意性和抽象性思维;

2. 需要高度社交智慧和谈判技巧;

3. 需要关心和与人沟通能力;

未来的世界,不改变工作模式是不行的。你现在只会抱着账本记账,就很难找到工作,因为大家都用电脑来记账。甚至报税都用电脑,否则就缴不了税,这也就是十几年里出现的改变,人不是也适应的挺好的。大家都能适应人工智能的世界,过去已经在一定程度上适应了,今后也可以适应。主要的问题,就在于今后要做到什么样的程度。

在前一阵子,波士顿的专家们则认为这个时间会更短:2025年之前,全世界至少要有四分之一的岗位因为人工智能的发展而彻底消失。预计可能有数十万乃至上百万人将受到直接冲击而失业。BBC 对此也进行过报道,认为在未来这些行业存在很大概率被人工智能替代,大家不妨做个参考:

笔者按照可替代度从高到低的排列顺序,给大家整理了下,20个在未来20年最有可能被人工智能替代的工作:


天天说钱


社会的每一次变革,都会涌现一大批优秀的人,人工智能是社会发展的大趋势,生在此时代,当是吾辈的福分,拥抱时代,拥抱变化,拥抱AI.

每个行业5到10年就会发生一些大的变化,现在说人工智能时代已经来临,还有些早,如今的人工智能还是弱人工智能,即目前技术积累是在感知类的领域,远没有到机器可以自主决策的阶段,之前也有在#AI是什么#的邀请下回答过一些自己对AI的理解,感兴趣的可以瞅瞅的,那至于如何应对AI,AI时代的来临,人才一定是最重要的资源之一,而且对人才的要求标准越来越高,人才越来越重要,人才拿到的薪酬也会愈来愈高的~ 但高标准的人才缺口愈来愈大,所以这是个机会,抓住AI ,便可以拿到较高薪酬的,改善生活,从学习AI开始~哈哈哈~.

个人建议从AI的行业概述、整个产业链构成来学习,先建立一个自己的知识框架,然后再学细分领域的知识;每个时代的兴起,代表着行业必将产生变化,当你了解了AI的行业概述,你就会明白AI发展是受技术驱动的,(数据量,算力、算法技术的发展等)、以及政策法规的影响(我国在政策法规层面上还是很OK的,百度拿到无人车牌照便是一个很好的开端~)当你了解了AI的整个产业链布局,你会发现每个行业都在”AI”,如果精力还OK的话,可以了解一下巨头在”AI”领域的布局,以及它们打造的开源平台,(个人曾对巨头打造开源平台十分不解,准备后续写一篇关于巨头打造开源平台的文章~),当你对AI建立了自己的知识框架后,你就应该研究一款AI时代诞生的产物,强烈建议关注“智能音箱”的发展~.

智联校园 学生支明回答

智联校园:求职 | 学习 | 活动 | 吐槽 | 故事 | 专属大学生的聚集地


智联校园


这个问题,让走在距离前沿最近的人

来回答一下?


人生资本论请来了AI领域的巨头公司——IBM的副总裁,周忆女士,来聊了聊人工智能时代的我们。


快看视频吧~


\n

{!-- PGC_VIDEO:{"thumb_fingerprint": 13597691725143657261, "vid": "5c7932b8a5c14c1b816fbf276349b6e0\

人生资本论


拥有告密者、活动家、参议员候选人多重身份的切尔西·曼宁日前在SXSW上就未经核查的数据收集和对算法错位信任的危险性展开讨论。“我在伊拉克参与开发的算法已经找到了它们进入监管的方法,还有大公司的运作方式,无论是你的信用报告还是广告数据。”

在与《Vogue》Sally Singer的对话中,曼宁谈到了自己十年前在军队的预测分析工作以及对现代程序员已经接近AI的担忧。她表示,虽然开发更好、更精确的算法这个初衷很好,但当它们被加上人类的偏见之后一切就将发生变味。

曼宁认为应当建立一套规范软件开发者的道德框架,“我们这些技术人员、开发人员,特别是在开发会影响到上千万人系统的我们--好吧,我想我是在说Twitter的算法、Google的算法以及预测警务--我们需要知道我们正在做什么。就像医生有道德规范一样,软件开发人员也应该有它的道德规范。”

曼宁指出,问题的部分原因在于收集了大量日后可以再度被利用的数据。“我对安全级别有着偏执。我建议人们最多的就是:对你放出的信息要有自我意识。”这包括技术上的自愿,像允许手机应用程序进行位置追踪、很难保持私密的数据以及被卖给广告商的购物记录等等。

与此同时,她对人们缺乏行动感到不安。曼宁指出,虽然人们知道政府的监控项目已经有四五年的时间,但他们却未曾采取实质行动而总是盼望着其他人来做点什么。

尽管曼宁自称信息偏执狂,但她在Twitter却保持着活跃的公众形象,不过按照她自己的说法,她只在“安全的笔记本”使用Twitter。

而科技届对AI表示担忧的绝非只有曼宁一人,像特斯拉CEO马斯克就曾多次公开表达了对AI的态度,日前他又在SXSW上重申了“AI远比核武器危险”的观点。


teikaei2cnBeta


或许当中需要重要的一个问题就是这项技术引发的伦理问题。据外媒报道,人工智能(AI)将成为科技行业的下一个大事物,然而随之而来的是人们对这项技术的担忧。微软CEO萨蒂亚·纳德拉就在公司最新的内部重组后表示:“在我们推动技术进步的同时我们需要确保我们的做法是负责任的。”

微软零售店(cnBeta配图)

为了显示雷德蒙德这家巨头公司对AI伦理和信任持续上升的重视,纳德拉还在上个月宣布了创建一个AI与伦理工程和研究(AETHER)委员会的消息。

为此,微软方面出于对AI伦理的担忧而不得不放弃掉销售。微软科学家Eric Horvitz在卡内基-梅隆大学的伦理与AI K&L Gates会议上指出:“重大(AI)销售不得不放弃。”

不过由于微软方面表示公司从未与任何现有客户达成任何交易,这意味着Horwitz提到的销售应该只是来自潜在客户。

微软在最新发表的声明中解释了更多关于AI伦理以及AETHER委员会。“我们认为有责任地开发和部署AI是非常重要的。微软成立了Aether委员会以此来确定、研究和推荐AI对人类和社会影响所带来问题、挑战和机遇的政策、程序和最佳实践。”

现在,AI在微软公司中已经占据了一个非常重要的位置,这家公司甚至暗示将会推出一个激动人心的驱动硬件。


cnBeta


同学周君大学毕业后就进了当地一家国有银行,两三年后就升到了中层主管,工作压力也不大,整天吃喝玩乐。待遇虽然比不上那些在北上广打拼的人,但在一个四线小城,已经羡煞百分之九十以上的人了。然而在最近一次同学聚会中,周君却满脸忧愁,原本有些少年白的头发似乎全白了。交谈之后才知道,银行引进了一套人工智能,周君所在的整个部门都被裁撤。周君当然不至于失业,银行把他调到了一个新部门。但是他焦虑的是,他对新的业务完全不熟悉。他在银行待了十年,除了本部门的业务,几乎没有学习过其他知识。部门里还有不少刚毕业的学生,他和这些应届生处在同一个起跑线上。他更加焦虑的是,新部门在未来的三到五年,也有被人工智能取代的可能。

周君的遭遇在当下的世界已经越来越普遍。2017年,五大国有银行裁员3万人。华尔街投行高盛的纽约总部,原本有600名交易员,引入人工智能后,只剩下3名。富士康多次宣布要用机器人取代产业工人。一时间,人工智能引发了新的焦虑,人们纷纷在问,我的工作会不会被人工智能取代?如果被人工智能取代了,我该怎么办?

其实这种变化并非今天才开始,早在五十多年前,美国、西欧等工业发达国家就已经开始发生变化,只不过那时候没有人工智能,而是信息革命引发了类似的问题。人工智能可以视作信息革命的一种升级,在本质上都是将人从机器中解放出来。这种技术进步引起了社会各个领域的深刻变化。传统的工业社会以商品生产为主要特征,信息革命发生后,工业生产在经济中的比重大大降低了,从业人员的比重也大幅降低。也就是说马克思所定义的工人阶级,无论是数量还是重要性,都在降低。美国著名思想家丹尼尔·贝尔把这种社会现象称为后工业社会。在五十年前,丹尼尔·贝尔就对未来社会进行了预测,并在《后工业社会的来临》一书中,详细阐述了后工业社会具体是什么样子。他的这些预测,有些已经发生,有些正在发生。如果被人工智能取代,我们该怎么办?读完这本书,我们就能找到答案了。

丹尼尔·贝尔(Daniel Bell,1919——2011)是当代美国大名鼎鼎的学者和思想家。他出生于纽约一个东欧犹太移民家庭,在孤儿院长大。从少年时期开始,贝尔就开始研究马克思主义和社会主义。在六七十年代,他在哥伦比亚大学和哈佛大学担任社会学教授,除了教学之外,还从事一些与未来研究和预测有关的工作。贝尔在二战后西方的社会学、未来学和资本主义研究等领域均处于领先地位。他在欧美思想界声望极高,曾被评为”10位影响最大的著名学者之一“。
在《后工业社会的来临》一书中,贝尔以当时的美国为模板,对后工业社会进行了预测:后工业社会是一个知识社会,理论知识处于中心地位,成为社会变革和政策制定的源泉。在当下,知识就是力量这种观念早已深入人心。但是知识的力量是怎么发挥的呢?贝尔首先给知识下了个定义:
知识是对事实或者思想的系统阐述,它提出合理判断或者实证结果,并且通过某种载体以规范的方式传达给他人。知识是已认知的精神财富,被冠以名称,拥有版权或者其他被认可的形式。
贝尔说知识是发明和创新的来源,产生附加价值和规模递增效应,常常会通过投资较少、产出更多的新产品来节省资本,这就是知识的价值。因此在后工业社会,理论知识的中心地位是产生新技术、经济增长和社会阶层的中轴。在理论知识这个中轴的驱动下,后工业社会呈现出以下特征:经济上,将从工业社会的产品经济转向服务经济;职业上,专业和技术人员越来越多的处于主导权;政治上体现在如何应用科技和控制科技方面。从目前已经发生、正在发生以及将要发生的事情中,我们可以很清晰的看出,当下的社会正在发生什么样的变化。

一、服务业迅速发展

这里所说的服务业是一种广义上的服务业,也就是第三产业,具体是指两大类:一类是满足人民生活层次提高的,比如文化、教育、旅游、电信服务;另一类是为生产提供高效能服务的金融、保险、专业咨询服务、电子商务、新型物流等。服务的发展伴随着人们消费层次的提升,同时也对专业知识提出了更高的要求。
目前阶段,发达国家的国民经济,第三产业占比都在70%以上。在中国,由于工业化只是初步完成,地区差异比较大。在北京上海这种城市,第三产业已经超过70%。而一些中西部地区,第三产业还不到50%。但即使是不到50%,也足以说明一个问题,作为第二产业的工业制造业占比正在下降。而且各级政府都在积极推行发展第三产业的政策。
在这种趋势下,制造业本身也在发生变化。传统的高能耗、高污染产业渐渐被淘汰了,取而代之的是更加智能、更加环保的制造企业。直接从事制造业的人数也在逐步降低,人们从事传统制造业的意愿也在降低。工厂招不到人,人们宁可送外卖也不愿意去生产线当工人的现象层出不穷。但是你会发现,即使是送外卖,也需要你掌握一定的专业知识。比如你需要学会使用APP,自行安排时间,让效率更高;需要学习如何提高沟通技巧,让用户不给你差评。而生产线的产业工人,大多时候只需要操作熟练度。
与之相对的则是专业人员和技术人员数量迅速增长。根据数据统计,进入21世纪以来,全球技术研发人员数量每年增长3.7%,而中国的年增长率达到了13.5%。2013年,美国的科学家工程师总数量为2110万人,而同年中国的科技人力资源总量为3170万人。也许中国的技术人员在质量上还有差距,但是他们目前所从事的工作本身已经说明了问题。
在服务业迅速发展的时候,社会的竞争已经变成了人与人之间的竞争。

二、专业人员起主导作用

服务业迅速发展,专业人员数量越来越庞大,相应的,专业人员的地位也越来越高。无论是社会层面还是企业内部,以专业人员为主体的人力资本正在发挥越来越重要的作用。传统的资本主要是积聚金钱或者土地的金融资本,而后工业社会资本的基本特征则是人力资本。那些拥有专业知识和技术的人才,正在成为企业乃至国家的竞争力。
工业社会的技术主要是指机械技术,可以理解为对机器的操作使用技术,比如制造机械、使用机械等等。现如今智能技术成为主流,智能技术是以数学和语言学为基础,比如人工智能,各种程序设计,虚拟技术等等。机械技术更加依赖工人的经验,因此传统制造业对高级技工需求很大。但在智能时代,理论知识则成为最大的需求。人工智能、云计算、大数据处理等等,对经验的要求已经很低,更加看重的是创新能力,而这个创新能力本质上就是一种理论知识的归纳和总结。
而在服务业,以交通运输为例。工业社会的基础设施是指交通运输--港口、公路、铁路、机场--用来交流货物与物资,这些设施的技术基础也是机械技术。后工业社会中信息是核心资源,专业化则会成为地位的标准。因此基础设施就是通信相关的设施:光纤宽带、互联网、5G、量子通信等等。这些领域除了需要大量的资金投入,更需要大量的科技人才。这些技术本身的发展,也完全依赖于基础理论的突破。
在工业社会,地位和特权的取得主要通过继承获得,比如家族企业,家庭农场,一部分则是通过企业家的创业。如今,是否掌握知识成了社会流动性的基础,企业家的身份也要求有较高的知识背景。即使继承了家族企业,如果知识背景不够,很可能会造成企业破产而失去地位。而拥有比较高的知识背景的人或者具有专业技术背景的人,可能在获取团队支持上更加容易。20世纪90年代出现的农民企业家,在现在以及将来出现的可能性已经越来越低。
管理界有句话“企业的最终竞争是人才的竞争”。在城市发展上也不例外。2018年初,各大城市纷纷制定了人才吸引计划,招揽高级人才。有些舆论说,这是卖房的套路。但是如果我们了解贝尔所说的后工业社会,就会意识到,这些措施都是为了城市的长远发展。

三、管理知识成为政治新挑战

上面提到,中国科技人员数量已经达到3000多万人,这些人大多分布在大学、企业研究机构之中。经济和就业越来越多的倾向于知识领域。一个新的知识阶层已经形成,而这个阶层的核心是那些搞研究的科学家和相关的技术人员。那么如何组织科学知识,以及进行相关工作的大学或者研究所的基础科研机构就成为后工业社会的核心问题。
这是个政治上的挑战,比如基础研究项目的预算分配,国家支持科学的方向和力度、科研队伍的组织等都是由政治决定的,而不是市场。由此又会产生新的问题,如何协调科学与公共政策的关系,如何分配公共资源,保持社会公正。具体来说比如高等教育的经费分配,对知识的评估(一些涉及未来的项目是否值得投资),需要提供的环境(因为涉及到创造性和生产效率的问题,比如强调团队协作还是天才),技术的转化问题,知识的更新等等。这一系列问题对政府来说都是一个很大的挑战。
挑战的出现意味着政府的公共管理能力需要提升,也就意味着需要更加专业的人员来进行管理,政治本身对知识的要求也提高了。根据目前官方所倡导的服务型政府理念,我们是不是可以认为,政府本身也是服务业中的特殊一员。政治家和科学家之间的界限恐怕会越来越模糊。
现在回到问题上,被人工智能取代了,该怎么办?贝尔阐述了后工业社会中知识的力量,结合当下社会来看,我们会发现,贝尔所说的这个理论知识的汇编,其实更像是一种创新能力。这种创新能力的关键之处在于学习知识,然后在此基础上,创造出一种新的东西。简单来说,就像我们写书评,我们读完一本书,有自己的体会和理解,并能阐述出来,形成一篇完整的作品。拥有了这个能力,我们就不用害怕被人工智能所取代。

dr迷蝶梦


博弈圣经著作人的理论学说;

学校给学生讲AI是非常困难的,因为没有被证明的博弈取胜理论编写进去、就不会有一本好的教科书。博弈圣经的博弈取胜理论属于“非绝对对立性”的三维私湍结构、非常不好理解,它比相对论的二维量子概率运算复杂得多,它是在“国正论非绝对对立性”哲学私湍中、进行的“国正论数形运算”,就是根据量子化数形逻辑哲学、对“粒子基因常数”的精确运算,一丝不差的运算出它的位置和它精确的量子化数码。把这些翻译成学生用的教科书可能不太容易,而且核心技术理论又被封锁。

由于博弈圣经著作人非常反对AI,他说吆喝AI的人就是骗钱。AI是一个词,AI是游戏赌博的意思,AI和输赢没有一点关系。他还说,AI是游戏,是赌博智慧的一个概念,AI没有任何内容。独立的谈AI没有一点用,无论谈多少东西都是胡扯。中科院院士姚期智说,人工智能现在最大的缺陷就是没有理论,人工智能基本上是一个实验的科学。


用户64551729537


简单来说,是新闻原文在几次传播过程中产生了新的内容(包括英文和中文),然后翻译到中文以后又出现了令人遗憾的误读(或许是故意的),最后让人产生错觉。

我给大家介绍下最开始的版本。

简单来说,这个聊天用的 AI 出现了bug,显得很智障。

然后讨论了一下,说了几个观点:

1. 人其实很难理解机器,至少没法像母语那样理解。学过编程的人都明白这是什么意思。

2. 英语(或者说人的自然语言)有本身的缺陷,至少应用在编程时不是最高效率的思维模式。

然后在传播和翻译的过程中就一路添油加醋,最后变成了 “AI 发明新的语言"。

大概就是这样。

以下是考证路径。

Google搜出最近的英文新闻也很玄幻,几个不知所谓的博主甚是吹了一波 AI 灭世论。那么我们先找找原文。

原版应该来自Digital Journal在22日(点进去是21日)的一个新闻,那我们点进去看一看。

细读我们会知道这一篇的主要论点在于探讨为什么这个 AI 没能达成预想的效果,并且讨论了英文的局限性。

那么其中提到:

那我们就去找 Fast Co. Design 的原文。

7月14日。

那我们就找到了原版的聊天记录,是这样子的。

At first, they were speaking to each other in plain old English. But then researchers realized they’d made a mistake in programming.

那我们其实意识到这是一个bug。

然后下文是进一步的讨论。

Facebook has three published papers proving it. “It’s definitely possible, it’s possible that [language] can be compressed, not just to save characters, but compressed to a form that it could express a sophisticated thought,” says Batra. Machines can converse with any baseline building blocks they’re offered. That might start with human vocabulary, as with Facebook’s negotiation bots. Or it could start with numbers, or binary codes. But as machines develop meanings, these symbols become “tokens”–they’re imbued with rich meanings. As Dauphin points out, machines might not think as you or I do, but tokens allow them to exchange incredibly complex thoughts through the simplest of symbols. The way I think about it is with algebra: If A + B = C, the “A” could encapsulate almost anything. But to a computer, what “A” can mean is so much bigger than what that “A” can mean to a person, because computers have no outright limit on processing power.

“It’s perfectly possible for a special token to mean a very complicated thought,” says Batra. “The reason why humans have this idea of decomposition, breaking ideas into simpler concepts, it’s because we have a limit to cognition.” Computers don’t need to simplify concepts. They have the raw horsepower to process them.

我们可以意识到这是对于英文本身的讨论,不是说 AI 创造了人类不能黎姐的新语言多么高明,而是讨论了人类自然语言的低效和不精确性。对编程语言或分析哲学有了解的朋友都能轻易产生共鸣。

此外,我找到了一点关于这个 AI 的信息。

6月的时候 Facebook 的人给这个AI写了一份概述性质的东西,https://code.facebook.com/posts/1686672014972296/deal-or-no-deal-training-ai-bots-to-negotiate/,有兴趣的人可以自己去看。

看上去跟这个新闻有关的就一句话:

But building machines that can hold meaningful conversations with people is challenging because it requires a bot to combine its understanding of the conversation with its knowledge of the world, and then produce a new sentence that helps it achieve its goals.

让程序跟人类产生有意义的对话还是挺难的,因为这需要程序把自己在对话中的理解跟自己所了解的东西结合起来,然后产生一个回复来完成对话。

就是说这东西挺难写,一不小心就会出bug。

那其实还是人写的,不存在什么 AI 发明的语言。


分享到:


相關文章: