人工智能技術在未來會如何發展?

出彩人生

AI技術一個好漢三個幫

  如果說新算法、新數據和新硬件是AI的三大支柱,那麼背後還有3種力量也是居功至偉。

  1 雲計算

  經過10年的發展,雲計算已經走過了概念驗證(POC)的階段,進入了規模落地的時期,正在發展成為新時期的關鍵信息基礎設施。雲計算就像20多年前TCP/IP那樣,正在改變這個世界。

  雲計算不僅直接推動了大數據的興起,也正在讓AI as a Service 成為現實。業界大佬紛紛推出了“GPU/FPGA/算法/數據 as a Service”,方便用戶做深度學習,通過雲端直接租用就可以了。

  2 開源框架

  如果說20多年前,以Linux為代表的開源,主要是在模仿商業軟件的做法。那麼今天,開源已經能夠引領技術發展的潮流了。10年來,不僅是軟件定義世界,更是開源軟件定義世界。

  2016年前後,AI巨頭們紛紛開源了深度學習框架。比如Facebook的Torch和Caffe、谷歌的Tensorflow、亞馬遜的MXnet、微軟的CNTK、IBM的SystemML等。10年前,Google開源了Android 操作系統,成功打造了智能手機的Android生態。現在,Google等紛紛開源AI框架,希望往日的輝煌重現。

  3 摩爾定律

  50多年來,摩爾定律一直支配著半導體行業的發展,並且已經擴展到了存儲、功耗、帶寬和像素等。摩爾定律說,同樣成本每隔18個月晶體管數量會翻倍,反過來同樣數量晶體管成本會減半。

  過去的30多年裡,以CPU為代表的微處理器的計算能力提升了100多萬倍。當今世界約有30多億人使用的智能手機,每部的性能都超過1980年佔據整個房間的超級計算機。

  摩爾定律是CPU、GPU和TPU等快速發展的基礎。雖然Google號稱TPU把摩爾定律加速了7年,但摩爾定律仍然支配著CPU、GPU和TPU的性能曲線。

技術侷限性

  深度學習的效果取決於網絡結構的設計、訓練數據的質量和訓練方法的合理性。無論是從統計學還是對智能的基本認知的角度看,這次以深度學習牽引的AI產業化浪潮,還處於發展初期的階段,存在不少瓶頸。

  首先是在算法方面。一是深度學習還是黑盒子,缺乏理論指導,對神經網絡內部湧現出的所謂“智能”還不能做出合理解釋。二是事先無法預知學習的效果。為了提高訓練的效果,除了不斷增加網絡深度和節點數量、喂更多數據和增加算力,然後反覆調整參數基本就沒別的招數了。三是調整參數還是在碰運氣。還沒有總結出一套系統經驗做指導,完全依賴個人經驗,甚至靠運氣。四是通用性仍有待提高,沒有記憶能力。目前幾乎所有的機器學習系統都是被訓練於執行單一任務,無之前任務的記憶。

  其次是在計算方面。目前的機器學習基本還是蠻力計算,是吞噬“算力”的巨獸。一是在線實時訓練幾乎不可能,還只能離線進行。二是雖然GPU等並行式計算硬件取得了巨大進步,但算力仍然是性能的限制性瓶頸。三是能夠大幅提高算力的硅芯片已逼近物理和經濟成本上的極限,摩爾定律即將失效,計算性能的增長曲線變得不可預測。

  第三是在數據方面。一是數據的透明度。雖然深度學習方法是公開透明的,但訓練用的數據集往往是不透明的,在利益方的誘導下容易出現“數據改變信仰”的情況。二是數據攻擊。輸入數據的細微抖動就可能導致算法的失效,如果發起對抗性樣本攻擊,系統就直接被“洗腦”了。三是監督學習。深度學習需要的海量大數據,需要打上標籤做監督學習,而對實時、海量的大數據打上標籤幾乎不可能。

  第四是無法與其他學派結合。目前AI取得的進步屬於連接學派,缺乏常識,因此在對智能的認知方面,缺乏分析因果關係的邏輯推理能力等。比如,還無法理解實體的概念,無法識別關鍵影響因素,不會直接學習知識,不善於解決複雜的數學運算,缺乏倫理道德等方面的常識等。

有智能無意識

  現在,業界只知道深度學習在圖像處理和語音識別等方面表現出色,未來在其他領域也可能有潛在的應用價值,但它究竟做不了什麼,如何與符號主義的邏輯推理等結合起來仍然不清楚。深度學習還需要更安全、更透明和更可解釋。

  前文這波AI熱潮是由機器學習引發的。到2017年,機器學習的神經網絡已具有數千到數百萬個神經元和數百萬個的連接。這樣的複雜度還只相當於一個蠕蟲的大腦,與有1000億神經元和10000億連接的人類大腦,差了N個數量級。但儘管如此,神經網絡下圍棋的能力已遠高於一隻蠕蟲。與此同時,一隻蠕蟲所具有的自繁衍、捕食和躲避天敵等智能,無論是人類智能還是人工智能,都望塵莫及。

  現在的AI是建立在“認知即計算”的理論之上的,實現時必須依靠計算機、服務器和GPU等各種“圖靈機”。但基於圖靈可計算理論,“盧卡斯論證”和彭羅斯“皇帝新腦”等早已論證或分析了,人的意識是非算法的,計算機無法建立起“自我”的概念。換言之,基於圖靈機的AI在理論上是無法覺醒的,或者說,能夠覺醒的AI不會基於這一代的計算機技術和理論。

  AI讓智能和意識分離,AI的智能完全有可能會超越人類,雖然它一直是無意識的。“AI已經在幾乎所有需要思考的領域超越了人類,但是在那些人類和其他動物不需要思考就能完成的事情上,還差得很遠”。計算機專家Donald Knuth對AI現狀的評價,也將會是相當長時間內的未來。


中國信息通信研究院

AI的未來怎麼樣?

一句話不知道能不能說明白(預測):“在即將進入的“擴增時代”AI將輔助人類使其能力得到巨大進化!未來還將幫助人類從根本上徹底改變生活方式,並推進人類社會進入‘後奇點社會’”

那麼,下面我們來科普一下上面的幾個知識點:

  • 擴增 & 擴增時代:這個概念是在TED Talk大會上被首先提出的,它表達了我們現在所處的時代特性。從持續了數百萬年的“狩獵時代”;到持續了幾千年的“農耕時代”;再到持續了幾個世紀的“工業時代”;發展到最近持續了幾十年的“信息時代”,時間越來越快。隨著科技的發展,我們即將踏入一個全新的時代,一個計算系統可以幫助你思考、機器人輔助你生產製造、數字神經系統擴展你的感知與世界建立連接,這一切皆有AI伴隨其中。人類的綜合感官能力、行動力、思考力等將因此得到巨大的進化,這就是“擴增時代”,它的到來極有可能要歸功於AI。

預言家說:“技術奇點”到來的速度被加快了,人類最早將在2050年進入“後奇點社會”。

  • 技術奇點 & 後奇點社會:“技術奇點”是一個根據技術發展史總結出的一種預測性觀點。對於這個詞通俗的解釋是,人類社會可能會因為AI人工智能出現和自我進化而使得技術的發展成指數級進步,在短時間內達到完全超越人類智慧的狀態,甚至超越人類的理解能力,你根本不知道它會把我們的生活改變成什麼樣,這個時間點被稱為“奇點”。

看到這裡不要怕,這只是一個根據技術發展史總結出來的預測,但它極有可能發生,就算真的發生了,也不會出現有些謠言所說的“毀滅日”,AI的發展並不會像電影裡那樣。

事實上未來AI進化所引發的“技術奇點”反而是我們人類所需要而且必須要經歷的階段。它會讓我們跨越好幾個時代,從根本上徹底改變我們的生活方式、社交方式、生產方式,誰也想象不出來那時候我們的日子會過程啥樣,但有一個事實是那時候的AI將成為我們生活的一部分。

上面所提到的那種社會形態,就是“後奇點社會”。人類、電子人、人工智能、機器人將是一種共生關係,那是一種全新的社會形態。

這一切如果順理成章的發生了,那都要歸功於AI。

所以,你覺得AI的未來怎麼樣呢?


貓眼智客-楊明慧

AI目前還能“用耳朵聽到”,它不只能聽懂你的話,還能通過聽Beatles或你的音樂,創作出新的音樂,或者模擬它聽到的任何人的聲音。一般人無法分辨出一幅畫或一首曲子是由人還是由機器創作的,也無法分辨出一段話是由人類還是AI說出的。

AI正在變得像人類一樣神秘。那些認為計算機無法擁有創造力,不能撒謊、出錯或者像人類一樣的想法,是來自於舊有的基於規則的AI,這些AI確實是可預測的,但它們會隨著機器學習的出現而發生改變。AI一旦掌握了某些新的能力,就被稱作“不夠智能”,這樣的時代已經結束了,對AI來說,唯一真正重要的區別是:通用AI,或者狹義AI。


氪星情報局

  據悉,本輪融資的資金將主要用於產品上線、B端商家拓展及團隊完善等方面。

  智能一點是一家專注於智能導購的AI公司,核心團隊主要來自於阿里、微軟、惠普等世界500強企業及一線互聯網公司,團隊70%為技術和研發,在人工智能、大數據和移動互聯網方面擁有強大的技術背景和商業變現能力,目前產品已落地母嬰、出行、餐飲等行業。

  智能一點創始人胡云華認為:商家在售前痛點明顯:晚間不值班期間,難以及時響應,用戶流失;售賣存在潮汐現象,在促銷高峰期對用戶諮詢應對不過來;人工客服表現差異大,服務質量難把控。針對這些問題,智能一點可以給商家提供能夠不斷學習的AI售前導購,它能夠聽懂消費者到底想問什麼,隨時快速、有效地指導消費者選購商品,促進購買轉化。

  據瞭解,此前,智能一點已經獲得3輪融資,分別是:2017年1月,獲得120萬元種子輪融資;2017年3月,獲得洪泰基金和洪泰智造工場聯合投資、創新谷跟投的600萬元天使輪融資;2017年9月,獲得1000萬元Pre-A 輪融資,青松資本領投,早前投資機構全部跟投。


投資界

“深度學習不是AI的未來”(https://mp.weixin.qq.com/s/OaRGa18V-5TYjlLR2Th7iQ),最近這篇文章在朋友圈廣為轉發,試圖給目前越來越火的深度學習降降溫。

正如有的網友對這篇文章的評論,我也非常贊同這個標題,但對這篇文章的內容卻不能完全苟同。

文章想要表明,現在業界似乎在偷換概念,把“人工智能”偷換成了“深度學習”,亦即批評業界把深度學習當成了人工智能的全部。對此觀點,我深表贊同。但是這篇文章自己也不知不覺犯了偷換概念的錯誤,即把“深度學習”偷換成了“統計方法”,即認為深度學習就是統計方法或大數據方法研究人工智能的全部。誠然,深度學習可以看成是統計方法的一種,然而統計方法或大數據方法研究人工智能,並不是只有深度學習。

不過,我寫這篇文章的目的,並不是要糾結這些概念的問題,而是想就那篇文章的核心觀點進行探討。探討之前,為避免讀者認為我也是在偷換概念,我先申明一下:我認為統計方法研究人工智能,與大數據方法是相同的,它們的核心都是“只關注相關性,不關注因果性”,即“知其然,而不知其所以然”。那篇文章實際上反對的正是這個“知其然,而不知其所以然”,即他說的“沒有解釋性”,統計性的人工智能無法對其所做的結論給出一個合理的解釋。比如文中說到“無疑深度學習在未來還會解決更多的問題,取代更多的工作,但不太可能解決所有的問題,或者保持驚人的進步以對其所作決定的公正性進行合理的解釋。”(注意,按我上面所說,這裡說的深度學習實際上就是統計或大數據方法,下同)

文章認為,我們人是能夠對結論進行合理解釋,但大數據方法不行,因此這個方法與人類思維的方法是不同的,所以它不是人工智能的未來。在這裡,我同意的一點是,模仿並達到甚至超過人類智能的水平就是人工智能的未來。但大數據方法真的與人的思維是不同的嗎?文章為了證明這一點,做了如下的論述,並舉納粹的例子來說明:“深度學習的一個侷限是把數據中最常見的內容作為真理,把統計學上較稀少、或與較常出現的內容相反的東西看作謬論。深度學習的公正性並非來自其自身,而是人類篩選和準備的深度學習數據。深度學習可以閱讀並翻譯文本,但不是以‘人類的方式’。如果使用超過100本書訓練深度學習模型:40本書告訴它仇恨、 戰爭、死亡和摧毀如何是壞的,60本書告訴它希特勒的納粹思想是好的,那麼該模型最終會成為100%的納粹!

如果在訓練數據集中納粹主義是最流行的觀點,深度學習靠自己永遠無法明白為什麼殺害猶太人、同性戀以及殘疾人是錯誤的。難怪深度學習無法解釋其自身決策,除了最簡單的:‘我(深度學習)讀到最多的是‘納粹主義是正確的’,因此它應該是正確的’。深度學習將會學習並模仿最具缺陷的邏輯而不去思考它的缺陷,包括恐怖主義。甚至孩童都可以自己明白電影中哪個傢伙是壞人,但是深度學習做不到,除非人類首先明確教導它。”

這番論述,看下去頗有些道理,然而我們人類真的和這有什麼不同嗎?就拿納粹的例子來說吧,相信讀者都在電影或紀錄片中看到過當時無數德國人在聽希特勒演講,併發出狂熱歡呼的場面。也就是說當年二戰時期,德國的大部分人,尤其是年青人,都堅定地深信“納粹思想是好的,猶太人是必須從地球上消滅的”。為什麼這些人認為納粹是對的,而其它國家(除軸心國)以及我們現在的人一般不會這麼認為?就因為當時德國人受到的教育、宣傳和訓練裡面40%(少數)告訴他們仇恨、戰爭、死亡和摧毀如何是壞的,60%(多數)是告訴他們希特勒的納粹思想是好的,那麼他們最終成為了100%的納粹!從這個例子,我們就可以看出,大數據方法完完全全模仿了人類的思維,幾乎沒有任何不同。換句話說,那篇文章認為大數據會犯的錯誤,我們人類也是同樣會犯,而並不是象他所說,我們人類是不同的。我們人對自己做的很多結論其實也給不出合理解釋,比如認為一件衣服好看,你常常會聽到這種說法,“好看就是好看,沒有什麼理由。”

孩童並不可以自己明白電影中哪個傢伙是壞人,他之所以知道,是因為看了很多電影及其中的教導,同時受到大人無數的(大數據)的指導。設想一個孩童從他出生後懂事起就告訴他那些壞人是“好人”,無數的這樣教育後,他自然會認為那些壞人就是好人,他們做的事是對的。如果你問他為什麼認為這是對的,他一定會說出類似這樣的話“我讀到最多的是‘納粹主義是正確的’,因此它應該是正確的”,亦即他認為的公正性並非來自其自身,而是大人們篩選和準備的學習數據。老祖宗早就教導過我們,“近朱者赤,近墨者黑”,人並不是我們相像得天生就具有明斷是非的智慧,這種智慧是後天學習得來的。

因此結論就是,大數據方法與人類思維的方法是完全相同的,用這種方法完全有可能實現與人一樣的強人工智能,所以大數據方法將主導人工智能的未來。

那為什麼又說深度學習不是人工智能的未來呢?(這裡的“深度學習”是指真正的深度學習,而不是等同於大數據方法,下同)正如GOOGLE等一些業內科學家所說,它仍然不夠像人的思維方式。深度學習的計算方法太複雜,涉及各種高等數學,其中最主要的就是擬合方程式來模仿人的實際思維。但模仿始終是模仿,並不是真實的。我們相信人的大腦裡沒有那些複雜的高等數學,沒有那些方程式,不會自然進行微積分運算。大腦只會進行簡單的加法運算,你每告訴它“納粹是對的”一次,它就在大腦里加一次,當達到一定數量,它甚至不能知道其精確的數量,只是模糊地知道這種“說法”佔多數,因此就認為它是對的。是的,大腦只能進行這種簡單的統計運算,但深度學習從簡單的角度來說,與這種方法還有很大差距,所以我們不認為它是人工智能的未來。大道至簡,這種簡單的統計才真正是人工智能的未來。有人懷疑,這麼簡單的統計運算,怎麼可能產生出人類那麼複雜的思維和意識,尤其是嚴密的邏輯推理能力。

總之,人的複雜思維及邏輯推理能力等,也是通過大數據方法,歷經億萬年的學習得來的,絕不是哪個造物主一開始就在人腦中設定好的。用複雜性科學的說法,就是大量簡單的重複和關聯,量變產生質變,從簡單中湧現出的複雜特性。而通過相同的方法,藉助大量數據簡單而巧妙的統計關聯,是完全可以實現強人工智能的!


螞蟻科學

這幾天,Facebok的AI“失控”事件一直在發酵。創新工場寫了一篇文章,放到這裡。

AI失控!奇點來臨?這些看上去就讓人爆炸的字眼,在過去的幾天裡,通過媒體和社交網站持續發酵。AI陰謀論甚囂塵上。

大家關心並擔憂未來,是否正如末日預言家所說,超級AI會接管世界,並像消滅病菌一樣消滅人類?

有趣的是,對未來AI的擔憂和恐慌,竟和100多年前中國的一段歷史非常相似。


奇點

來臨,機器人大反派降生了?

事件起源於Facebook 6月發表的一篇論文。論文描述了他們進行的一項科學實驗:訓練兩個人工智能機器人對話交流,提升談判能力。

Facebook的研究人員希望通過訓練聊天機器人,讓它帶著“目的”和人類對話。他們給機器人兩本書、一頂帽子和三個籃球,讓它們通過談判拿到最多的物品。這個過程中,為了產生數據,機器人做了大量的自我練習,就像AlphaGo左右手互搏練習圍棋一樣。

這場實驗的重點,在於如何使程序進行有效的談判和溝通。研究人員完成了他們的實驗,並且發現,人工智能甚至能夠對不想要的東西偽裝出興趣。

論文發佈後,實驗的重點並沒有得到媒體大面積的關注,相反,實驗過程中的一個小瑕疵,引發了媒體和大眾的狂歡。

聊天機器人Alice和Bob在實驗中意外產生了讓人看不懂的對話。它們使用的雖然是英語單詞,但在語法上沒有任何意義,看起來像是一堆亂碼。

Bob:I can can I I everything else.

Alice:Balls have zero to me to me to me to me to me to me to me to me to.

翻譯過來是:

Bob:我能能我我所有其他事。

Alice:球沒有對我對我對我對我對我對我對我對我對。

The Atlantic《大西洋月刊》首先關注到這件事。在6月15日當天的報道中,使用了標題 “Artificial Intelligence Developed Its Own Non-Human Language”(人工智能發展出了自己的非人類語言)

之後,Fast Co. Design和Digital Journal發表文章,強調研究人員在發現AI機器人不再使用常規英語後,緊急“關停”了這一項目。

隨後一週裡,這些報道在各個科技網站以及新聞網站上逐步擴散。英國媒體《每日電訊報》、《鏡報》等新聞媒體也發佈了諸多相關的誇大報道。《太陽報》則說,專家在Facebook的AI發展出自己的語言後發出警告,“機器人智能非常危險”。

這些報道在網絡上引發了公眾的興趣。在Facebook主頁的相關新聞下,留言中大量出現《終結者》、《復仇者聯盟》中的“奧創”等人工智能機器人大反派的名字。大家都在猜測,

傳說中的奇點是不是已經到來了?


聊天機器人會“失控”?埃隆·馬斯克可不這麼想

傳言持續發酵,讓幾位參與項目的Facebook研究人員坐立難安,不得不出面澄清。

Dhruv Batra稱這些斷章取義的報道是“標題黨並且不負責任”。他在Facebook上發文稱:

“雖然對外界人士來說,AI機器人發明了自己的語言這樣的說法可能令人擔憂並且意外,但其實這是AI研究中一個發展相對成熟的副領域,相關文獻可以追溯到幾十年以前。”

簡單來說,在嘗試完成任務時,機器人經常會採用一種更為複雜曲折的方法以獲得最大化的獎勵。對獎勵函數進行分析,更改試驗參數,並不意味著“切斷電源”或者“關停AI”。

不然,每當AI研究人員在機器上終結一項任務時,都可以叫做“關停AI”。

實驗初期本來是允許機器修改語言的。研究人員為系統設置激勵條件時,告訴它們“請用英文”,但並未告訴它們 “請用英文語法”。結果兩臺機器不管語法,將語言過分修改,產生了很多無意義的對話。發現後,研究人員便關掉了修改語言的選項,然而這並不是“關停AI”。

另一位研究員hardmaru發推文表示,“《自AI發明了自己語言後Facebook關閉了它》這篇報道的題目非常不負責任,作者應該對它感到羞恥”。

事實上,機器人聊天是目前AI應用的諸多領域之一。谷歌Alphabet以及埃隆·馬斯克發起的OpenAI近期也進入了這一方向。有些機器人已經發展出了自己獨特的交流風格,研究人員正對其進行不斷的調試。

讓人印象深刻的是,埃隆·馬斯克是“AI末日論”堅定的傳道者,幾天前還與Facebook創始人扎克伯格辯論。如果AI聊天機器人會失控,估計馬斯克不會輕易嘗試。


對人工智能的恐懼,或許是100多年前的歷史回魂

不管是否出於刻意,媒體誇大事實甚至製造流言的做法,讓公眾對AI產生了懷疑,也讓參與該項目的Facebook研究人員感到憤怒和委屈。

“大眾以及部分媒體、自媒體,對AI的理解很多來自科幻電影,而科幻電影裡面的AI超級智能,是有生存意識甚至陰謀論的。所以看到這類科研結果,就會斷章取義,往科幻片方向想。” 創新工場(chuangxin2009)董事長李開復說。

末日預言家的恐嚇讓媒體和公眾加重了對AI的擔憂。

霍金在全世界享有盛譽,但他認為人工智能的崛起可能是人類文明的終結

埃隆·馬斯克同樣信奉AI末日輪。“研究AI,好比在召喚惡魔。”

他說,如果人工智能在多個領域超越人類,人類將面臨大規模失業的危險,生活因此會變得毫無意義。

霍金和馬斯克的觀點擁有諸多擁躉。在AlphaGo擊敗李世石前後,馬克·扎克伯格發了一條貼文,稱Facebook也有自己的人工智能,能夠在圍棋比賽中擊敗人類。

“你為什麼就不能放過這一古老的遊戲,讓它不受任何虛擬玩家的干涉?我們真的所有一切都需要人工智能嗎?”到2016年6月,這條帖子已經收到了超過85000條表情反饋和4000條評論。

有趣的是,對未來AI的擔憂和恐慌,和100多年前中國的一段歷史非常相像

1865年8月,英國商人杜蘭德在宣武門外鋪設了一條長約半公里的鐵路。從未見過火車的清朝人,被“以小汽車行駛其上,其迅疾如飛”的景象嚇得不輕,以至“詫所未聞,駭為妖物,舉國若狂”。


這段鐵路很快被“飭令拆卸”。在此之前,面對洋商多次修築鐵路的請求,清政府都以失我險阻,害我田廬,妨礙我風水”的理由嚴厲回絕。

10年後,英國怡和洋行擅自在上海修建了一條十餘公里長的鐵路,以便輸送貨物和旅客。清政府得知後即憤怒又尷尬,不得不以28.5萬兩銀子的重價贖回,並拆毀鐵軌、剷平路基、推倒車站。這些器材在海灘上風吹雨淋,很快變成了廢鐵。

清朝官員對鐵路排斥歷時彌久,厭惡的原因之一是擔心“失業”,害怕鐵路修成後,沿線舟車挑夫、行棧鋪房無以為生,必將聚為流寇。

巧合的是,今天抵制AI的人,最大的反對理由也是“失業”。



創新工場

目前AI已經應用到了娛樂,交通,金融,新聞,物流,工業,教育,醫療等領域。未來會應用在生活的方方面面,成為人類很好的工作。

目前基於大數據,在新聞領域通過AI個寫稿,剪輯,審核等,在未來AI可以更好的幫助

瞭解用戶需求,精準服務用戶。瞭解市場需求後,還可以寫出符合大眾需要的內容,剪輯視頻,校對文稿等。

在教育領域,人工智能已經被用於批改作業,授課等項目。未來AI可以用於輔助教師教學,幫助教師更好地瞭解班裡的每個學生,作出個性化的教學安排和輔導

在金融領域,生物識別技術的廣泛應用使得刷臉支付已成為現實。準確度更高的生物識別會被開發出來,比如指紋識別,更或者是眼神就可以。還有比人更精準服務客人的AI金融顧問。

在物流領域,光是雙十一就有數以萬計的機器人投入到了智能分單、智能配送、無人倉、無人機等產品和服務。這也讓2017雙十一物流速度和服務水平顯著提高。未來AI還可以取代司機開車,取代快遞員送貨。

在零售領域,無人超市已經遍佈全國。未來AI的應用會讓購物更方便和有隱私感。未來還會將AI應用到

評估商品的進貨量等方面。

在交通領域,一般用戶用到的有除了地圖、導航等應用外。無人駕駛也成了各大汽車公司,科技公司的研究項目。以人工智能取代人駕駛,可以更準確判斷路面狀況,更及時作出判斷,還杜絕了酒後駕駛和疲勞駕駛。

在醫療領域,人工智能可以通過大數據分析檢查結果,篩查檢查報告

。輔助醫生診斷,加快醫療效率。


科技空間

人工智能正在改變我們的生活,我們也切實體會到了人工智能帶給我們的便利。

我覺得人工智能目前還處於剛起步的萌芽階段,還有很長的路需要走。近期,我國教育部發布通知說要將人工智能編進課本,讓我們的孩子從小就要學習人工智能。從此可以看出,人工智能必定是今後國家發展的利器,我們只有從小學開始培養人工智能方面的人才才有和其他國家競爭的實力。

現在所推崇的智慧教育,創客教育等都是在為人工智能的發展打下基礎。目前我所在的學校也在進行創客教育,我有幸成為創客教育的一名教師,平時從最簡單的3d建模開始,培養學生的思維,然後利用3d打印技術將學生的作品打印出來,增加學生學習的興趣。編程技術也在小學中逐步開展,讓學生充分發揮想象力,設計自己的作品。

從目前的勢頭來看,人工智能還會更加快速的發展,我們的生活會有更大的改變,讓我們拭目以待吧!


窮酸先生

世界上最激動人心、最強大、最新穎的創新就是人工智能。科學家和工程師們正試圖製造出精密的計算機,能夠進行復雜的理解、決策和對話。希望能夠將這些智能機器應用到更廣泛的用途上,使我們生活的更多領域自動化。

這項技術充滿了許多機會和風險。先進的計算機將能夠完成很多的日常任務,使生活變得更加美好和方便,並創造新的機會去做更多的事情。然而,偉大的科學家史蒂芬·霍金曾警告說,他相信,人工智能會毀滅人類,還有很多其他的風險。

那麼AI會被用來做什麼呢?主要的領域應該是工作,特別是手工、不熟練的工作和車輛,但也有一些公司計劃利用人工智能來豐富美容系統。下面,一起來看看我們生活中的三個主要領域,這些領域都將會被AI所取代和超越。

工作

人類擔心人工智能最大的問題是,超級智能機器容易在各種不同的工作領域中取代人類。最大可能的是體力工作,比如在運輸或製造業,很多人認為人工智能機器可能獲得46%-56%和的工作機會。

在長期的工作中,由於人工智能的存在而面臨風險,在採用人工智能的公司中創造了更多的工作機會。有可能,只要有正確的機會或專業的技能,那些被機器人取代的工作者就可以進入新的工作崗位,這要麼是機器無法完成的,要麼是與計算機相關的工作。

車輛

另一個關於人工智能技術的應用是無人駕駛汽車,尤其是在汽車領域。到2020年,無人駕駛汽車將開始上路,數量可觀。人們普遍預計,到2040年,95%的新車將實現無人駕駛,完全自動化。大量的證據表明,自動駕駛汽車每年將拯救成千上萬的生命,消除人為錯誤的駕駛風險。

儘管如此,最近的一項民意調查顯示,絕大多數人(76%)不願意相信無人駕駛或無人駕駛技術,78%的人會在自動駕駛汽車中感到恐懼或擔憂。為了確保人們為未來的交通做好心理準備,我們需要進行大量的宣傳和教育工作,但毫無疑問,這些自動駕駛汽車對我們所有人來說都是好的。

美容

許多美容行業的公司正在做的一項創新,就是設計一個人工智能來幫助顧客美容。隨著人工智能和互聯網技術的發展,機器將能夠收集和處理關於顧客的身體和美容習慣的數據,並向顧客提供個性化的美容建議。

這將是美容程序的一個完整的轉變,完全為你量身定製,從一個擁有無限信息的機器和關於美容技術的機器。迪奧已經向這個方向邁出了一步,通過一份標準化的調查問卷,創建了一個使用Facebookmessenger來收集顧客信息的基本人工智能。該工具還允許用戶與聊天機器人聯繫,詢問產品信息和建議。

在人工智能領域,有一種方法可以讓一個完全智能化的機器人提供定製的建議,並就顧客的需求進行完整的對話,在這個革命性的開發過程中已經取得了進展。


分享到:


相關文章: