创造精彩2017重整旗鼓
社会与国家应对人工智能,要面临困难的选择,它完全不同于以前任何一次技术冲击。
自从工业革命后,人类社会一直在经受创造性破坏,或者破坏性创造。新技术创造出一批就业机会,也毁灭了一部分人的生计。如果新就业机会多于旧的,而且赚钱更多,社会总体财富增加,那么社会就容易接受这种进步。反之社会就抵制这种进步。
当年汽车代替马车,破坏了马车夫马车行的生意。但是围绕汽车迅速形成一个产业链,总价值远大于马车,所以人类社会大约用十几年就普遍接受汽车。
相反的例子是农业机械。它产生于十九世纪末,欧美普遍缺乏劳力,所以它能够普及。50年代中国就想大力引进农业机械,早期人民币上就有女社员开拖拉机的形象。但是后来发现,当时城市无力吸纳普及农业机械后富裕出来的农村劳动力,所以就改为承包制。农业还是以手工劳动为主,直到最近机械化才在中国农村大规模出现。
人工智能很有可能更象后者而不是前者,它所破坏的就业岗位远大于它能提供的。同时其它科学领域也没有足够的进步提供大量就业机会。所以人工智能的普及造成了大规模的社会破坏。有人统计,自动化和人工智能让美国消失了两千多万个劳动岗位,远多于外包中消失的工作岗位。
但从微观社会也就是公司这个层面来看,如果能用人工智能他们就不会用人工,这个趋势不会变。所以很考验国家如何调控这个矛盾。现在还没有哪个国家解决这个问题。特朗普上台就是美国在这个问题上失败的表现。他代表着美国落后生产力,选民中有很多是自动化与人工智能淘汰的,几乎无望再就业。他们希望美国恢复到挖煤炼钢时代,与硅谷关系极差,并且有公开抵制高科技的言论。
这对中国也是个危险信号,因为人工智能很快也会大量破坏就业岗位,就象当年收割机破坏小农经济一样。马丁福特在《机器人时代》中估计,中国被人工智能威胁的岗位多达40%,远超美国的20%。这也好理解,我们本来就以低技术劳动力为多,现在他们一长大就遭遇人工智能,淘汰的可能性更大。
如果没有大量新的就业岗位创造出来,积累的失业压力如何释放必然会成为大问题。现在世界上对此还没有答案,我们也无法照抄西方经济学或者政策就能解决,他们自己都还不知道怎么办好。
科技文化郑军
在20年前的北京,有一批开电梯的女操作员。许多单位那种老式的大电梯,女操作员有把椅子坐着。人上来,女操作员就会问到哪楼,按开门关门和楼层纽。这种工作没有任何价值,但是就确实存在。为了部分人口的就业,这些单位也是拼了,给需要就业的关联人口安排了这种工作。
那是以前的事,人工智能出现后,原理是一样的,要敢于放开想象力。会出现很多象电梯操作员一样的职业。其实不需要你做什么,系统会安排好你的工作。
也许是整天刷APP,看够各种文章、视频,保持活跃的评论、点赞,就有钱收;也许是完成游戏任务,VIP来玩了,就去勇敢地挑战,然后死得精彩一些。或者和AI对战,接受羞辱。总之,IT与人工智能时代就算真的出现了大批“废材”,系统会找到安置的办法,因为这世界还是人说了算。
以后总有些工作是AI取代不了的。比如,人的主观存在、感性意识、情感发泄,AI是无法取代的。无论是踢球、广场舞,还是打麻将,表演起来。学会表达出来,表示自己还是个人,哪怕围观的是AI。大批的人会成为戏精。
如果以后注定是AI世界,那也可以选择成为带路党。学习去了解AI,开发AI,帮助AI发展壮大,取代越来越多的人。
除了废材、戏精、带路党,还有两种选择。一种是系统的一部分,一种是反抗者。以后即使是AI世界,在法理、技术层面,也会有一部分人和其它人不一样,例如拥有AI认可的系统股权。好好混,无论是通过花钱,还是成为资本家,还是技术入股,找机会获得这种股权。
如果接受不了安排,可以成为反抗者,在人类的保留地,过着不接受AI的生活。抗争之后,系统会给反抗者一部分生存空间,去除AI的影响,让人类自己管理。
从人性的角度,以后人们的出路就是这些了。个人总会被迫选择一种角色,无法拒绝。
风云学会陈经
(-东南偏北)
这个问题很有前瞻性,似乎大家都已把人工智能当做了未来的一种大趋势。如何适应人工智能时代,我们倒不如以此为基础来分析分析。
人工智能会威胁人类的哪些工作?
以前看过一项调查,说是60%以上的华尔街基金都在计划引入人工智能来炒股,这应该是真的。不过这不是问题的关键,问题是基金经理干嘛去啊?现在的基金经理如果还想着按照原来的方式去工作,那自然就得失业。事实上,据说现在基金经理的工资也在一路下滑,甚至滑倒了过去自己看不起自己的程度,让他们开始怀疑人生。
前面说的基金经理只是举的一个例子,但是说如果一定要对人工智能威胁的人类的工作进行一个归纳的话,那么人工智能淘汰的人类的工作,一定是缺乏创新性,且工作趋向重复性的工作。
也就是说,安全的工作符合以下特点:
1. 有非常高的创意性和抽象性思维;
2. 需要高度社交智慧和谈判技巧;
3. 需要关心和与人沟通能力;
未来的世界,不改变工作模式是不行的。你现在只会抱着账本记账,就很难找到工作,因为大家都用电脑来记账。甚至报税都用电脑,否则就缴不了税,这也就是十几年里出现的改变,人不是也适应的挺好的。大家都能适应人工智能的世界,过去已经在一定程度上适应了,今后也可以适应。主要的问题,就在于今后要做到什么样的程度。
在前一阵子,波士顿的专家们则认为这个时间会更短:2025年之前,全世界至少要有四分之一的岗位因为人工智能的发展而彻底消失。预计可能有数十万乃至上百万人将受到直接冲击而失业。BBC 对此也进行过报道,认为在未来这些行业存在很大概率被人工智能替代,大家不妨做个参考:
笔者按照可替代度从高到低的排列顺序,给大家整理了下,20个在未来20年最有可能被人工智能替代的工作:
天天说钱
社会的每一次变革,都会涌现一大批优秀的人,人工智能是社会发展的大趋势,生在此时代,当是吾辈的福分,拥抱时代,拥抱变化,拥抱AI.
每个行业5到10年就会发生一些大的变化,现在说人工智能时代已经来临,还有些早,如今的人工智能还是弱人工智能,即目前技术积累是在感知类的领域,远没有到机器可以自主决策的阶段,之前也有在#AI是什么#的邀请下回答过一些自己对AI的理解,感兴趣的可以瞅瞅的,那至于如何应对AI,AI时代的来临,人才一定是最重要的资源之一,而且对人才的要求标准越来越高,人才越来越重要,人才拿到的薪酬也会愈来愈高的~ 但高标准的人才缺口愈来愈大,所以这是个机会,抓住AI ,便可以拿到较高薪酬的,改善生活,从学习AI开始~哈哈哈~.
个人建议从AI的行业概述、整个产业链构成来学习,先建立一个自己的知识框架,然后再学细分领域的知识;每个时代的兴起,代表着行业必将产生变化,当你了解了AI的行业概述,你就会明白AI发展是受技术驱动的,(数据量,算力、算法技术的发展等)、以及政策法规的影响(我国在政策法规层面上还是很OK的,百度拿到无人车牌照便是一个很好的开端~)当你了解了AI的整个产业链布局,你会发现每个行业都在”AI”,如果精力还OK的话,可以了解一下巨头在”AI”领域的布局,以及它们打造的开源平台,(个人曾对巨头打造开源平台十分不解,准备后续写一篇关于巨头打造开源平台的文章~),当你对AI建立了自己的知识框架后,你就应该研究一款AI时代诞生的产物,强烈建议关注“智能音箱”的发展~.
智联校园 学生支明回答
智联校园:求职 | 学习 | 活动 | 吐槽 | 故事 | 专属大学生的聚集地
智联校园
这个问题,让走在距离前沿最近的人 来回答一下?
人生资本论请来了AI领域的巨头公司——IBM的副总裁,周忆女士,来聊了聊人工智能时代的我们。
快看视频吧~
\n
{!-- PGC_VIDEO:{"thumb_fingerprint": 13597691725143657261, "vid": "5c7932b8a5c14c1b816fbf276349b6e0\
人生资本论
拥有告密者、活动家、参议员候选人多重身份的切尔西·曼宁日前在SXSW上就未经核查的数据收集和对算法错位信任的危险性展开讨论。“我在伊拉克参与开发的算法已经找到了它们进入监管的方法,还有大公司的运作方式,无论是你的信用报告还是广告数据。”
在与《Vogue》Sally Singer的对话中,曼宁谈到了自己十年前在军队的预测分析工作以及对现代程序员已经接近AI的担忧。她表示,虽然开发更好、更精确的算法这个初衷很好,但当它们被加上人类的偏见之后一切就将发生变味。
曼宁认为应当建立一套规范软件开发者的道德框架,“我们这些技术人员、开发人员,特别是在开发会影响到上千万人系统的我们--好吧,我想我是在说Twitter的算法、Google的算法以及预测警务--我们需要知道我们正在做什么。就像医生有道德规范一样,软件开发人员也应该有它的道德规范。”
曼宁指出,问题的部分原因在于收集了大量日后可以再度被利用的数据。“我对安全级别有着偏执。我建议人们最多的就是:对你放出的信息要有自我意识。”这包括技术上的自愿,像允许手机应用程序进行位置追踪、很难保持私密的数据以及被卖给广告商的购物记录等等。
与此同时,她对人们缺乏行动感到不安。曼宁指出,虽然人们知道政府的监控项目已经有四五年的时间,但他们却未曾采取实质行动而总是盼望着其他人来做点什么。
尽管曼宁自称信息偏执狂,但她在Twitter却保持着活跃的公众形象,不过按照她自己的说法,她只在“安全的笔记本”使用Twitter。
而科技届对AI表示担忧的绝非只有曼宁一人,像特斯拉CEO马斯克就曾多次公开表达了对AI的态度,日前他又在SXSW上重申了“AI远比核武器危险”的观点。
teikaei2cnBeta
或许当中需要重要的一个问题就是这项技术引发的伦理问题。据外媒报道,人工智能(AI)将成为科技行业的下一个大事物,然而随之而来的是人们对这项技术的担忧。微软CEO萨蒂亚·纳德拉就在公司最新的内部重组后表示:“在我们推动技术进步的同时我们需要确保我们的做法是负责任的。”
微软零售店(cnBeta配图)
为了显示雷德蒙德这家巨头公司对AI伦理和信任持续上升的重视,纳德拉还在上个月宣布了创建一个AI与伦理工程和研究(AETHER)委员会的消息。
为此,微软方面出于对AI伦理的担忧而不得不放弃掉销售。微软科学家Eric Horvitz在卡内基-梅隆大学的伦理与AI K&L Gates会议上指出:“重大(AI)销售不得不放弃。”
不过由于微软方面表示公司从未与任何现有客户达成任何交易,这意味着Horwitz提到的销售应该只是来自潜在客户。
微软在最新发表的声明中解释了更多关于AI伦理以及AETHER委员会。“我们认为有责任地开发和部署AI是非常重要的。微软成立了Aether委员会以此来确定、研究和推荐AI对人类和社会影响所带来问题、挑战和机遇的政策、程序和最佳实践。”
现在,AI在微软公司中已经占据了一个非常重要的位置,这家公司甚至暗示将会推出一个激动人心的驱动硬件。
cnBeta
同学周君大学毕业后就进了当地一家国有银行,两三年后就升到了中层主管,工作压力也不大,整天吃喝玩乐。待遇虽然比不上那些在北上广打拼的人,但在一个四线小城,已经羡煞百分之九十以上的人了。然而在最近一次同学聚会中,周君却满脸忧愁,原本有些少年白的头发似乎全白了。交谈之后才知道,银行引进了一套人工智能,周君所在的整个部门都被裁撤。周君当然不至于失业,银行把他调到了一个新部门。但是他焦虑的是,他对新的业务完全不熟悉。他在银行待了十年,除了本部门的业务,几乎没有学习过其他知识。部门里还有不少刚毕业的学生,他和这些应届生处在同一个起跑线上。他更加焦虑的是,新部门在未来的三到五年,也有被人工智能取代的可能。
其实这种变化并非今天才开始,早在五十多年前,美国、西欧等工业发达国家就已经开始发生变化,只不过那时候没有人工智能,而是信息革命引发了类似的问题。人工智能可以视作信息革命的一种升级,在本质上都是将人从机器中解放出来。这种技术进步引起了社会各个领域的深刻变化。传统的工业社会以商品生产为主要特征,信息革命发生后,工业生产在经济中的比重大大降低了,从业人员的比重也大幅降低。也就是说马克思所定义的工人阶级,无论是数量还是重要性,都在降低。美国著名思想家丹尼尔·贝尔把这种社会现象称为后工业社会。在五十年前,丹尼尔·贝尔就对未来社会进行了预测,并在《后工业社会的来临》一书中,详细阐述了后工业社会具体是什么样子。他的这些预测,有些已经发生,有些正在发生。如果被人工智能取代,我们该怎么办?读完这本书,我们就能找到答案了。
知识是对事实或者思想的系统阐述,它提出合理判断或者实证结果,并且通过某种载体以规范的方式传达给他人。知识是已认知的精神财富,被冠以名称,拥有版权或者其他被认可的形式。
一、服务业迅速发展
二、专业人员起主导作用
三、管理知识成为政治新挑战
dr迷蝶梦
博弈圣经著作人的理论学说;
学校给学生讲AI是非常困难的,因为没有被证明的博弈取胜理论编写进去、就不会有一本好的教科书。博弈圣经的博弈取胜理论属于“非绝对对立性”的三维私湍结构、非常不好理解,它比相对论的二维量子概率运算复杂得多,它是在“国正论非绝对对立性”哲学私湍中、进行的“国正论数形运算”,就是根据量子化数形逻辑哲学、对“粒子基因常数”的精确运算,一丝不差的运算出它的位置和它精确的量子化数码。把这些翻译成学生用的教科书可能不太容易,而且核心技术理论又被封锁。
由于博弈圣经著作人非常反对AI,他说吆喝AI的人就是骗钱。AI是一个词,AI是游戏赌博的意思,AI和输赢没有一点关系。他还说,AI是游戏,是赌博智慧的一个概念,AI没有任何内容。独立的谈AI没有一点用,无论谈多少东西都是胡扯。中科院院士姚期智说,人工智能现在最大的缺陷就是没有理论,人工智能基本上是一个实验的科学。
用户64551729537
简单来说,是新闻原文在几次传播过程中产生了新的内容(包括英文和中文),然后翻译到中文以后又出现了令人遗憾的误读(或许是故意的),最后让人产生错觉。
我给大家介绍下最开始的版本。
简单来说,这个聊天用的 AI 出现了bug,显得很智障。
然后讨论了一下,说了几个观点:
1. 人其实很难理解机器,至少没法像母语那样理解。学过编程的人都明白这是什么意思。
2. 英语(或者说人的自然语言)有本身的缺陷,至少应用在编程时不是最高效率的思维模式。
然后在传播和翻译的过程中就一路添油加醋,最后变成了 “AI 发明新的语言"。
大概就是这样。
以下是考证路径。
Google搜出最近的英文新闻也很玄幻,几个不知所谓的博主甚是吹了一波 AI 灭世论。那么我们先找找原文。
原版应该来自Digital Journal在22日(点进去是21日)的一个新闻,那我们点进去看一看。
细读我们会知道这一篇的主要论点在于探讨为什么这个 AI 没能达成预想的效果,并且讨论了英文的局限性。
那么其中提到:
那我们就去找 Fast Co. Design 的原文。
7月14日。
那我们就找到了原版的聊天记录,是这样子的。
At first, they were speaking to each other in plain old English. But then researchers realized they’d made a mistake in programming.
那我们其实意识到这是一个bug。
然后下文是进一步的讨论。
Facebook has three published papers proving it. “It’s definitely possible, it’s possible that [language] can be compressed, not just to save characters, but compressed to a form that it could express a sophisticated thought,” says Batra. Machines can converse with any baseline building blocks they’re offered. That might start with human vocabulary, as with Facebook’s negotiation bots. Or it could start with numbers, or binary codes. But as machines develop meanings, these symbols become “tokens”–they’re imbued with rich meanings. As Dauphin points out, machines might not think as you or I do, but tokens allow them to exchange incredibly complex thoughts through the simplest of symbols. The way I think about it is with algebra: If A + B = C, the “A” could encapsulate almost anything. But to a computer, what “A” can mean is so much bigger than what that “A” can mean to a person, because computers have no outright limit on processing power.
“It’s perfectly possible for a special token to mean a very complicated thought,” says Batra. “The reason why humans have this idea of decomposition, breaking ideas into simpler concepts, it’s because we have a limit to cognition.” Computers don’t need to simplify concepts. They have the raw horsepower to process them.
我们可以意识到这是对于英文本身的讨论,不是说 AI 创造了人类不能黎姐的新语言多么高明,而是讨论了人类自然语言的低效和不精确性。对编程语言或分析哲学有了解的朋友都能轻易产生共鸣。
此外,我找到了一点关于这个 AI 的信息。
6月的时候 Facebook 的人给这个AI写了一份概述性质的东西,https://code.facebook.com/posts/1686672014972296/deal-or-no-deal-training-ai-bots-to-negotiate/,有兴趣的人可以自己去看。
看上去跟这个新闻有关的就一句话:
But building machines that can hold meaningful conversations with people is challenging because it requires a bot to combine its understanding of the conversation with its knowledge of the world, and then produce a new sentence that helps it achieve its goals.
让程序跟人类产生有意义的对话还是挺难的,因为这需要程序把自己在对话中的理解跟自己所了解的东西结合起来,然后产生一个回复来完成对话。
就是说这东西挺难写,一不小心就会出bug。
那其实还是人写的,不存在什么 AI 发明的语言。