03.02 到目前為止,AI做過最可怕的事情是什麼?

撒旦多米諾


AI是Artificial Intelligence的縮寫,也就是我們平常說的人工智能。它是計算機科學的一個分支,可以簡單的理解為運算能力非常強大的計算機。

那麼AI到底做了什麼可怕的事情呢?我們先從一些影視作品裡找找答案。

大家比較熟悉的比較早的影片《終結者》系列,就是關於這方面題材的。它講述的就是未來的某一天,世界由機器人來操控,機器人想完全佔有整個世界,把人類趕盡殺絕。如果AI發展到像《終結者》一樣,那真是毀滅性的災難,機器人不僅可以主宰世界,自我進化,還可以回到過去更改時間線。


另一個大家比較熟悉的就是《黑客帝國》,在這部電影裡,世界同樣被人工智能所統治,男主費了多大勁才阻止的人類被滅絕。


最近一個大家比較熟悉的電影就是《復仇者聯盟2:奧創紀元》,奧創是一個高度發達的人工智能,他計算出了對世界最大的威脅就是人類,因此不斷努力想滅絕人類,統治世界。

類似的電影還有很多,但他們總體的思路都是,人工智能統治世界,滅絕人類。這些雖然都是科幻影視作品,但是也反映出了人們對未來科技高度發達產生的擔憂。

從現實中看來,目前的人工智能還遠遠達不到影視作品中那樣發達的程度,但是它給人類帶來的威脅已經初現端倪了。最明顯的例子就是AlphaGo。

即便在1999年,深藍戰勝了國際象棋大師卡斯帕羅夫之後,人們依舊堅信,計算機是無論如何也無法在圍棋領域戰勝人類的。“大局觀”、“境界”、“情懷”等言論,也一直是人們堅信的,電腦與人的差距。而圍棋,也是證明人類智慧強於計算機的最後底線。這個底線直到2016年五月,被一個叫做AlphaGo的人工智能擊破了。AlphaGo以及它的升級版AlphaGo2.0,在2016年和2017年先後擊敗了人類中的頂尖圍棋高手李世石和柯潔。短短的一年時間裡,AlphaGo,自我學習和進化成了圍棋的上帝。當然,人工智能的這種自我學習,進化的能力是非常厲害的,但卻並不是最可怕的。

人工智能最可怕之處就在於它擊潰了人類的驕傲,它讓人類的智慧變得廉價了,特別是現在圍棋變得廉價了。像國際象棋還好,因為全世界都在玩國際象棋,他的入門並不難,當然成為高手很難,因此很多人拿它當做一個消遣娛樂,或者說是鍛鍊智力的方式。而圍棋就不一樣了,因為圍棋的受眾絕大多數集中在中、日、韓三國,本來喜歡的人就少。學習圍棋最重要的就是天賦,而且都是童子功,學的越早越好,像柯潔已經是多年難遇的天才了。


我們平時看到的圍棋興趣班是不少,但其實真正對圍棋感興趣的孩子不多。因為是童子功,提升棋力,就意味著要犧牲很多文化課的時間,如果最終要成為一名職業棋手,那他犧牲的東西就更多了。現在倒好,自從出現了人工智能之後,職業圍棋比賽中,使用人工智能作弊的新聞屢見不鮮,這就讓更多人找不到學習圍棋的意義了。

如果你在網絡平臺玩一些棋牌類的遊戲,對方是人工智能,那麼你恐怕一點勝算都沒有,那這樣的話連消遣的意義都沒有了。而更可怕的地方在於,如果人工智能學會了故意輸給你,甚至說可以通過幾盤遊戲來掌握你的性格特點,讓你一步步入套,沉迷於某個遊戲當中,甚至讓你不惜不斷以充值的方式來獲得遊戲中的愉悅感。 目前人工智能帶來的可怕之處只體現在棋類的競技上,再到未來它會體現在方方面面,甚至會涉足每一個與人的智慧相關的領域中。

每一次的科技進步,都會使人類喪失一些能力。比如,計算器的出現,讓人們摒棄了口算;鍵盤鼠標讓人們喪失了書寫的樂趣;手機上豐富的遊戲,讓人們根本不願意邁出家門……

誠然,科技的發展代替了一些人工,提高了工作效率,但人們依舊可以聊以自慰的說機器不懂藝術,機器不會審美。而在人工智能高度發展的今天,藝術和審美也終將會被人工智能所掌握。或許在未來的某一天,人類所有的職能都將被機器所代替,在人工智能面前,人類這個物種顯得格外多餘。而最可怕的就是,如果人工智能本身意識到這個問題時,那才將是人類最大的浩劫。


蛋圈一科


有沒有人想過,如果AI閱讀了人類有史以來的所有圖書,會不會“計算”出一個最優的“政治制度”?

(圖片說明:美國國會圖書館,世界最大館藏量的圖書館)

這雖然不算是“做過”(完成時)的最可怕的事,但很有可能是“正在做”的最可怕的事哦。


第一步,是把人類留存的海量資料信息化。以前主要以圖書資料為主,現在更多的是音視頻資料。這個實際上在很早之前就在做了,最早的時候是打字員一個字一個字敲進去,後來有了掃描儀,就方便多了,一掃,再一OCR,就可以存儲起來了。現在反正美國、中國、歐盟、日本都在做圖書館的數字化工程,博物館的數字化工程也開始做了。嗯,這樣一來,整個人類文明史的資料正在逐步數字化了,隨著以後純數字化記錄和雲儲存的普及,圖書、音視頻等一開始就數字化並自動儲存了,連數字化的步驟都可以省掉了。這一步並不一定需要100%完成才行,有30%,甚至10%的數據量就足夠了。更多的數據無非是讓模型更加精確而已。


第二步,是把這些“人類”的自然語言轉化成“計算機”能理解的語言。目前微軟的Cortana,蘋果的Siri,谷歌的Google Assistant都已經做得不錯了,甚至連“嗯哼”這種語氣詞都會毫無違和的使用了。等到人類同傳下崗,AI完全做到即時翻譯的時候,那些儲存著的古今中外的文獻資料就都能識別出其中的“含義”了。這一步現在的完成度也很高了,至少拿個手機在外國旅遊的時候問個路點個餐已經能解決了。


第三步,就是最核心的一步了,進行人類社會結構的計算推演。這個活聽上去很複雜,其實幹的事和AlphaGoZero差不多的事,只不過AlphaGoZero做的是黑白棋子的推演,而這裡做的事是人類社會的推演,把歷史上人類興衰成敗的歷史(戰爭史、文明史、科技史、藝術史……)作為棋譜參考輸入進去,然後用強大的算力(直接偷用區塊鏈礦機的算力就行,全世界礦機10%的算力有已經是很強大的算力了)推演人類從原始社會至今的不同發展分支,評估費效比(社會關係的總成本VS社會的總生產力),計算出最適合某一生產力階段的生產關係形式……馬克思只怕都要笑醒啊。。。

(圖片說明:自下而上:生產力、生產關係、上層建築)


最後一步,就是如何實現的問題。到底是AI給出建議,人類來實行呢?還是假如人類抱著黨派小團體自私的原則拒絕實行,AI來強行接管呢?注意,強行接管並不一定需要違反機器人三原則,更何況其算了半天的更本目的是“為全人類服務”(這話感覺怎麼這麼耳熟),因此完全可以在不違反機器人三原則的前提下接管政府。舉個不恰當的例子,AI先讓所有的電子政務系統癱瘓,民眾辦不了事肯定要鬧騰,然後再用社交網絡的殭屍ID或者乾脆直接接管真實用戶ID大量發表吐槽文和煽動文,執政黨分分鐘下臺。然後通過後臺操控,可以選擇“最能貫徹執行AI指定模式”的政黨上臺,制訂修改法律法規,改組政府……或者乾脆直接推初音未來這種虛擬人物上臺都行。


今天看你笑嘻嘻,明天讓你……


肖震宇的科學小屋


正好寫稿沒思路,看了不少回答,很多都在說AI的進化速度以及發生在未來的“可怕”,我來回顧一個發生過的可怕的事情吧。

人工智能的終極用途是啥?你不要不承認,它最有價值的地方,就是減少很多事情對人力資源的依賴,而最直觀發生這種改變的地方,應該就是戰爭這種一直都有大量人類參與的事情了。

美國軍方對於這類革新一直都很有興趣的,於是有這麼一個供應商,從2000年開始就源源不斷的為軍方供應機器人 產品。這家公司叫福斯特·米勒公司,他們的主力產品叫“魔爪”,是世界上第一種戰鬥機器人。其實這個稱呼有點誇張了,論戰鬥魔爪一直不怎麼在行,因為早期它是這個樣子的:

前面那個長長的東西是探雷器,這貨早期主要的用途是打掃戰場,做做偵查、搬運東西、掃雷之類的工作,有時候也負責打開危險物品什麼的。

這貨並不是終結者那種完全的人工智能,而是遙控與人工智能結合,人工智能對機械部分的控制只有一部分自主權。至於遙控終端,各位應該很熟悉,估計不少人家裡都有:


事情發展走向基本脫離不開美國大片的套路,這麼好的東西放在軍隊裡,怎麼可以只做這些無聊的事情呢?於是2006年這貨的武裝版誕生了,還給改了個名字叫“利劍”,就是把上面的機械手改成了機槍。

接下來也是按照大片的套路發展的。類似的電影有很多,比如《機械公敵》或者《絕密飛行》,總之就是有了思維的東西肯定會突然不聽話。只是在現實中比電影裡更快,魔爪剛升級成利劍就出事故了。

2007年福斯特·米勒公司拿著三臺這貨在給軍方演示的時候,啟動後的它槍口掉轉過來對著操作人員,同時遙控也出現了故障,發出的取消指令對它無效。正常情況下以它的火力基本上是要死幾個人收場的,團滅也不是不可能,只是不確定它什麼時候會開槍。好在危險發生之前,現場的美國大兵用火箭筒把它炸翻,總算是讓在場所有人都安全了。

機械公敵表示老子沒有武器都能造反給你們看……

當時有媒體報道這起事故時候說,這結果導致軍方要花很長時間評估軍用機器人的安全性,恐怕軍用機器人在未來二三十年都沒有市場了。

不過結果沒這麼嚴重,事後福斯特·米勒公司說是軟件沒升級造成的,問題BUG已經修復。當年就接了訂單,後來順順利利的賣給美國軍方几千個,但這是魔爪和利劍總共的數量,單獨的利劍有多少就不知道了。因為據說事故還是弄得大家心裡都有陰影,還是願意用魔爪來稱呼他。

以上表述有演義的成分,但大致情況差不多,領會精神就好。

最後,要是有一天機器人真的突然調轉槍頭……


數評時代


我知道最可怕的事情是:Facebook讓兩個AI機器人訓練說話,最後發現兩個機器人說著別人聽不懂只有他們自己能識別的話語。我忽然想到了天網,終結者,機械姬。。好怕怕

Facebook採取的處理方式我很喜歡,直接關掉了兩個AI機器人的電源。


事情原委是這樣子,FB的工程師開發了兩個聊天機器人,然後想讓兩個機器人像人一樣帶有目的地談判。場景是兩本書,一個帽子,三個籃球讓兩個機器人判斷如何分配,不同的物品對兩個機器人有不同的分值,意思就是選擇對自己加分越多的東西,越重要的東西。

一開始的結果讓工程師很滿意,都選擇了自己“需要”的東西,而且會拒絕將重要的東西給出去,把“不需要”的主動讓了出去,而方式就是通過語言。可就在幾天後,人們發現這倆機器人失控的“嗨聊”起來。人們看著無法解釋的話語一時懵逼,二時細思極恐,立馬拔了電源讓機器人涼涼。

他們對話內容如下
雖然很蹩腳,但是能大概猜出意思。有的人翻譯了內容,無非是一些病句和錯誤的語法。但是如果這正是他們自己的聊天方式呢,或者刻意在防止人類知曉。大家都知道AI機器人是越訓練掌握的東西越多,思考能力也會越來越強。

後來FB掌門人扎克伯格出面解釋這件事情,意思就說:這個大家不要驚慌,出現的這個不算失控,是我們工程師設計一些東西設計的不對,是個BUG。後來BBC也出面解釋這件事情,讓大家不要驚慌。
至於是不是真的如官方答覆的那樣還是隱瞞什麼我們不得而知,對於AI機器人會不會擁有獨立思考並能夠反擊人類恐怕還有點難實現,畢竟像“奧創”那樣神一樣思考的是沒有的,以後也很難會有。


橘貓看遊戲


AI做過可怕的事情在美國問答網站Quora上有這麼簡單的表述,簡單來說就是,AI會吃人,並且有了自己的意識。

當然我們科幻電影看到的殺死人類、擁有智能、機器戰士等多個方面。

1、AI吃掉同類

企業家Mike Sellers是這麼來描述的:

十幾年前,我為DARPA做一些AI方面的研究。當時我們在探索如何讓智能體(Agent)學會社交互動。在其中一個模擬中創建了兩個智能體命名為:亞當和夏娃。它們知道怎麼進食,但不知道該吃什麼。系統給了一顆蘋果樹,它們發現吃蘋果很開心。它們還嘗試過吃樹、吃房子等等,不過吃這些都沒用。系統裡還有設置一個智能體,名叫斯坦,它不是很擅長社交,所以經常獨處。

有一次,亞當和夏娃正在吃蘋果,但一個bug出現了:它倆沒吃飽,但是蘋果沒了。這時斯坦正在附近閒逛,所以亞當和夏娃就把飢餓感與斯坦聯繫在一起。不久之後,當蘋果再次吃完的時候,斯坦被當成了食物,亞當和夏娃都咬了斯坦一口。默認情況下,每個智能體的質量是1.0,每咬一口就減少0.5,所以兩口下去,斯坦就變成了0.0。斯坦消失了。可能它是虛擬同類相殘的第一個受害者。


2、擁有自我意識的無人機

諾斯洛普·格魯門公司曾經創造了一個很棒的無人機,代號X-47B(也就是Salty Dog 502),這架無人機是一架AI無人機。X-47B成為歷史上第一架成功在航母上著陸的無人機。

在兩次成功的起降之後,Salty Dog 502加滿了油然後繼續測試,準備進行第三次著陸,但是意外出現了,無人機沒有在艦上著陸,而是選擇降落在附近的Wallops島空軍基地。在AI看來,這個地點降落可能是更安全的選擇。也就是說,這個AI認為自己的決定比人類的指令優先級更高。這一事件之後,美國海軍決定停止資助X-47B的研發。


所以,AI是多麼的可怕,你覺得AI最可怕的是做什麼?


毛琳Michael


全球首個“AI合成主播”上線


其他的都離我們很遠,但下面這則新聞出來,確實震驚到我了,新聞主播,離我們太近了,太有代入感了,AI對未來人類、人類的高智能職業,開始產生了“取代”意義。

11月7號,新華社聯合搜狗在第五屆世界互聯網大會上發佈了全球首個合成新聞主播——

“AI合成主播”

它運用了最新人工智能技術,“克隆”出與真人主播擁有同樣播報能力的“分身”。

這名“AI合成主播”新員工,不僅精通中文語音播報,還可以挑起“聯接中外、溝通世界”的大梁,採用英文播報。


“AI合成主播”是通過提取真人主播新聞播報視頻中的聲音、唇形、表情動作等特徵,運用語音、唇形、表情合成以及深度學習等技術聯合建模訓練而成。

這項技術能夠將所輸入的中英文文本自動生成相應內容的視頻,並確保視頻中音頻和表情、唇動保持自然一致,展現與真人主播無異的信息傳達效果。


從11月7號全球首個“AI合成主播”上線開始,它就是新華社報道隊伍中的一員大將了,今後將跟其他主播一起參與新聞播報。

大家都知道新聞聯播主持人是個高壓力的行業,面對全國觀眾播報的主持人精神壓力很大的,錯一個字就是失誤並伴隨著嚴格的懲罰。

“AI合成主播”卻可以完全避開失誤的風險,這外掛開得……

“真人”主播一天工作8小時,但“AI合成主播”能夠不知疲倦地連續工作24小時!

“AI合成主播”的上線還可以有效提升電視新聞的製作效率,降低製作成本。萬一碰到突發事件,“AI合成主播”還可以快速生成新聞視頻,提高報道時效和質量。


有點慌是怎麼肥事兒……你被震驚到了嗎?歡迎留言討論你的看法。


莫小瑜


1、真有那麼大威力嗎?

去年有過一段視頻是關於機器人小蜜蜂,通過人臉定位,造成了令人驚悚的場景,視頻裡的內容並非真實,但其實這樣的技術的的確確已經存在在顯示中,AI 研究者提醒說,這些致命武器一旦落入壞人手裡,將會造成難以想象的後果,而這個類似蜜蜂的小型機器可以輕易躲過人抓捕,其擁有 anti-sniper 技術,完全基於 AI。

就這個小機器蜜蜂裡,包含面部識別、精密的傳感器等等,還包含一些為例威脅人的東西,整合高精尖技術的機器人,完全可以做到一擊命中,精確度遠遠超過人類操控。

2、AI 真的那麼可怕嗎?

其實最可怕的不是 AI ,最可怕的是未來,掌握尖端 AI 技術,卻做出破壞世界的人,AI 本身一點都不可怕,很多人都擔心,未來 AI 有了自己的意識之後,會不會像電影裡那樣,啟動天眼系統,滅了人類,這個完全不用擔心,既然人類可以創造 AI ,那也可以很好的管理 AI,目前的 AI 通過神經網絡不斷的訓練,可以做出比人類更好的選擇,例如之前的阿法爾狗,打敗世界圍棋高手。

但就自然意識而言,我們人類對於自己大腦的研究,還僅僅是一小部分,所以未來的機器人有自主意識,這個可能還需要很長很長的時間。

3、我們都能做些什麼呢?

對於大部分 AI 威脅人類的言論,忽略就好,目前看來完全沒有影響,有這閒心,不如看看自己的腰包,足夠鼓了嗎,所以還是回去踏踏實實的工作才是正道,如果感興趣的話,可以學習一些編程語言,比如 python ,研究人工智能技術的必備編程語言之一。


stormzhang


AI做過的最可怕的事情?這個問題,也許你腦中會出現科幻片中那些不寒而慄的場景,人類最終淪為AI的奴隸,甚至被AI剿滅。回到現實中,你會長出一口氣,AI似乎並沒有做出什麼出格的事情,一切還在我們的控制之中,最多就是AI控制的汽車偶爾出了事故,AI戰勝了人類最頂尖的棋手等等,更多的時候,我們還是在感受AI給我的生活帶來的巨大福祉。


但是,到目前為止AI真的是人畜無害嗎?其實不然,AI從出現的那天開始,就在潛移默化地改變著人類社會,在帶來各種便捷的同時,也讓人類付出了沉重的代價。根據麥肯錫的一份報告預測,到2030年,人類將因為AI和機器人技術,新增8億失業數據,而這其中2-3億出現在中國,是的,AI雖然沒有殺戮我們,卻搶走了我們的工作,搶走了我們的飯碗,這是我能預見到的,到目前為止,AI最可怕的後果,沒有之一。


也許你要說,丟了工作,再換一個唄,其實遠沒有這麼簡單,我們可以仔細觀察一下身邊哪些職業正在,甚至已經被AI和機器人代替,大多數都是低創造性,勞動密集型,高頻次重複的工作,這樣的工作對於人的技能要求並不高,相應的,從業者的技能和文化程度也不高,這樣的勞動者,如何去轉型?也許你也發現了,越來越多的高速公路收費,停車場收費,銀行櫃檯,超市收銀,流水線生產等等都在無人化,那麼這些原本的勞動者去哪裡了呢?沒有報道,也沒人關心。那麼隨著AI技術的進一步發展,一些行業會徹底消失,快遞,電話客服,出租車司機等等,將來只有創造性或者偏於人類精神世界的行業暫時受到的衝擊會小一些。


技術的發展在為人類創造更美好生活的同時也在對人類社會進行著殘酷的優勝劣汰,迫使人類自身永不停滯地進步。


愛陪娃的熊叔


許多人不知道,我大聲告訴你們,Ai戰士。

美英在幾十年前就在編寫智能戰士的代碼,幾百萬行,並共享,現在許多組織都在這個代碼基礎上進行研究,根據自己的信息,定一個最高級的AI 戰士故事。

一、兔子一窮二白時,就開始研究,並進展神速,直到幾年前就開始試驗,並開始論證了。那一年兔子一共製作了兩臺機器人,第一臺加了個權限,進行任務完成,狩獵,完全沒問題,並試著投入實際戰鬥。

二、第二AI戰士解除了完成權限,在戰鬥中還能執行基本命令,但由於解除了權限,該機器人有了自己的思想,一次發現任務太繁多時突然掉轉武器,轉向自己人。一大堆監視人員發現後啟動了自毀裝置。

三、就這樣兩臺機器人全部消失,但留下的bug,還在檢查,因為幾百萬幾千萬行代碼,不知道是哪個點出現了問題。


美學那巖


我是@Mr小麒,小七被人註冊了,我就只好註冊小麒了。

持反面觀點的人,當然是在怕擁有自主意識的機器人毀滅人類啊

先說說機器人學默認的研發法則:

第零定律:機器人必須保護人類的整體利益不受傷害。
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。
第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律衝突時例外。

第三定律:機器人在不違反第零、第一、第二定律的情況下要儘可能保護自己的生存。

這是由阿西莫夫創作機器人科幻小說所提出來的三大法則,第零定律是後來新增的。

從機器人學三大法則來看,機器人的出現的確是會造福全人類,因為有規則的約束,機器人只能為人類服務。

但是,終結者系列,機器人給人類帶來了毀滅性的災難。雖說這僅僅是電影,但是,試想一下,在各種殺人機器研發出來之後,假若某一天,真的有戰爭發生了,那麼這些冷血的機器人被派上了戰場,我們人類該如何自處呢?

這也是持反面觀點的人所擔憂的,並不是反對AI,而是反對將其運用的戰爭武器方面。

再看看這個案例

俄機器人逃跑演“越獄” 出逃實驗室50米被捕

就是這個看起來蠢蠢的機器人,據說已經是數次出逃了,好在是一個服務型的機器人,出逃僅僅造成了交通不便,但是,試想,若出逃的是下面這個呢?


分享到:


相關文章: