2019年人工智能大事件彙總

2019年人工智能大事件彙總

2019 年無疑是忙碌的一年。人工智能的進步和新聞頻頻登上頭條新聞,讓我們的生活充滿了敬畏和自豪的時刻,但一些其他時刻充卻斥著一種惱人的想法,那就是這項技術讓人們發現,我們的社會並沒有準備好迎接人工智能的普及。

2019 年,究竟是人工智能進步的一年,還是幻滅的一年呢?隨著研究人員攻城略地,迅速攻克以前難以企及的基準,今天,我們可不可以這樣認為,這個領域已經正在步入穩步發展的軌道呢?

在 ADSP(Applied Data Science Partners,意即“應用數據科學合作伙伴”)網站上,我們想後退一步,把 2019 年的人工智能界發生的事件整理好,以讓公眾能夠有個全新的視角。在聚光燈下,重要的是要將一項工作最初吸引人們的興趣,與它的實際重要性,以及它對該領域產生的影響區分開來。為此,本文將展開人工智能故事的平行線索,並試圖分離出它們的意義。多虧了我們出色的內容作家 Elena Nisioti,她將這些故事講得如此精彩!

讓我們坐下來,一起回顧 2019 年的人工智能領域的方方面面。

處在文藝復興時期的領域

如果讓我們用一句話來描述 2019 年的人工智能現狀,那很可能是:“強化學習(Reinforcement Learning )迴歸,看起來將永存”。

到目前為止,我們中的大多數人可能已經熟悉了 監督式學習(Supervised Learning):有些人收集了大量的 訓練數據,將它們饋送到 機器學習算法 中,然後得到一個 模型,這個模型可以為我們進行 預測分類。我們中的一些人甚至可能有這樣的印象:即,人工智能就是監督式學習的同義詞。然而,監督式學習只不過是我們今天擁有的 眾多類型的機器學習 中的一種罷了。

在強化學習(Reinforcement Learning,RL)中,智能體用 試錯 的方法,通過與環境進行交互來學習,這種環境會給它們的 行為 提供 獎勵回報。當涉及到多個智能體時,它們被稱為

多智能體強化學習系統(Multi-agent Reinforcement Learning System)。

這個領域已經存在幾十年,從概念上來講,它聽起來比監督式學習更像是一種合理的創造智能的學習機制。然而,直到 2015 年,DeepMind 才獲得了人們的關注,當時 DeepMind 使用深度 Q 學習(Deep Q-learning)創建了 Atari(雅達利) 遊戲的智能體,這是一種結合了經典強化學習算法和深度神經網絡的算法。2018 年,OpenAI 也通過 解決 Montezuma’s Revenge(一款被認為難度特別高的 Atari 遊戲),從而在這一領域確立了自己的地位。

在過去的幾個月裡,事態升級了:

2019年人工智能大事件彙總

這些工作重新喚起了學術界對強化學習的信念,在過去,人們曾經認為強化學習效率低下,過於簡單,無法解決複雜的問題,甚至連遊戲的問題也不能解決。

今年,另一個大受歡迎的應用是 自然語言處理(Natural Language Processing,NLP)。儘管研究人員在這一領域工作了幾十年,但近些年的自然語言處理系統生成的文本聽起來還是不夠自然。自 2018 年底以來,人們的注意力已經從過去的詞嵌入轉移到 預訓練語言模型,這是自然語言處理從計算機視覺中借鑑來的一種技術。這些模型的訓練是以非監督的方式進行的,這使得現代系統能夠從互聯網上的大量文本中進行學習。因此,這些模型變得“博聞強識”,並發展出了理解上下文的能力。然後,可以通過監督式學習進一步提高它們在特定任務上的表現。這種通過在不同任務上訓練機器學習模型來改進模型的做法,屬於 遷移學習(transfer learning)的範疇,被認為具有巨大的潛力。

自去年 Google BERT、ELMo 和 ulmfit 等系統在 2018 年底推出以來,自然語言處理一直風頭正茂,但今年的聚光燈被 OpenAI 的 GPT-2 給“奪走了”,它的表現引發了人們對 自然語言處理系統的道德使用的大討論。

實踐走向成熟

今年,人們也見證了最近一些深度學習技術走向成熟。應用監督式學習,特別是 計算機視覺 技術,已經催生了現實生活中成功的產品和系統。

生成對抗網絡(Generative Adversarial Networks,GAN)是一對神經網絡,其中,生成器網絡試圖通過學習生成模仿訓練數據的圖像來欺騙判別器網絡,現在已經達到了近乎完美的水平。對人工智能來說,創造虛假但又逼真的人物和物體的圖像,已經不再是前沿領域了。從 2014 年生成對抗網絡的引入 到 2019 年 NVDIA 開源的 StyleGAN,一圖勝千言,我們用下面的圖片來說明,這可能是理解該領域進展情況的最佳方式:

2019年人工智能大事件彙總

2019 年,人工智能創造的藝術品甚至脫離了過去幾年的假設性討論,成為了今天 博物館裝置和拍賣 的一部分。

計算機視覺還被應用於一些具有重大商業和社會意義的領域,包括自動駕駛車輛和醫學。但是,人工智能算法在這些領域中的應用自然是緩慢的,因為它們直接與人類生活直接互動。至少到目前為止,這些系統還 不是完全自主的,它們的目的,在於支持和 增強 人類操作員的能力。

研究團隊正與醫院密切合作,開發用於疾病早期預測的人工智能系統,並整理大量的健康數據檔案,其中一個值得注意的例子,是 DeepMind Health 和 UCLH 之間正在進行的合作。然而,這些工作中的大部分仍處於試驗階段,迄今為止,唯一獲得 FDA 批准的人工智能系統是 SubtlePet,這是一款使用深度學習增強醫學圖像的軟件。

沉睡的巨人

AutoML 是機器學習的子領域之一,自 20 世紀 90 年代以來就一直存在,在 2016 年引起了人們的極大興趣,但不知何故從未登上頭條新聞,至少不像其他人工智能趨勢那樣。也許這是因為它並不那麼花哨的性質:AutoML 的目的是通過自動化決策來使機器學習的實踐更有效,而今天數據科學家是通過手動、蠻力調優做出的決策。

在過去三年中,我們對這一領域的理解已經發生了變化,今天,大多數大公司都提供了 AutoML 工具,包括 Google Cloud AutoML、Microsoft Azure、Amazon Web Service 和 DataRobot 等。今年,隨著 學習進化人工智能框架(Learning Evolutionary AI Framework,LEAF)成為最先進的人工智能技術,人們的興趣轉向了“進化”(Evolutionary)方法。然而,AutoML 還沒有達到可以讓一個完全自動化的人工智能系統比人工智能專家團隊執行更好的成熟水平。

對人工智能的擔憂

儘管取得了壓倒性的成功,但今年人工智能領域也給我們帶來了一些令人沮喪的故事。其中主要問題之一是 機器學習模型中的偏見,這一問題直到 2018 年才顯現出來,當時 Amazon 發現他們的 自動招聘系統中存在性別偏見,而美國法院廣泛使用的判決工具 COMPAS 也被發現存在性別和種族的偏見。

今年案件的數量有所增加,這可能表明,公眾和機構對用於自動化決策的現有人工智能系統越來越懷疑。以下是圖景的一小部分:


  • 今年 10 月份,某醫院的算法被發現對黑種人患者存有偏見。
  • 去年 10 月,某人權組織指責用於發放英國簽證的人工智能系統存在種族偏見。
  • 今年 11 月,Apple 的信用評分系統被客戶指責存有性別偏見。

偏見是一個特別令人擔憂的問題,因為它位於監督式深度學習的核心中:當有偏見的數據被用於訓練,且預測模型無法 解釋 時,我們不能真正判斷出是否存有偏見。迄今為止,學術界的反應一直是致力於開發技術,以瞭解深度模型決策背後的原因,但專家警告稱,如果我們採用正確的實踐方法,那麼許多問題都可以迎刃而解。Google Cloud Model Cards 是最近的一次嘗試,旨在使組織社區走向開源模式,同時明確描述其性質和侷限性。

今年另一個讓人擔憂的發現是,當一項技術變得越複雜時,它被濫用的可能性就越大。Deepfake 就是生成對抗網絡的陰暗面,深度學習算法被用來在純粹虛構的場景中創建涉及真實人物的圖片或視頻。人們不難看出,這項技術如何被用於傳播虛假新聞,從政治宣傳到欺凌。這個問題單靠科學家是無法解決的,歷史已經證明,科學家並不善於預測他們的發現對現實生活的影響,更不用說控制它們了,這需要社會各界進行廣泛的對話。

今天的人工智能有多強大?

如今,要量化人工智能的價值真的很困難。但有一點是可以肯定的:人工智能已經脫離了科幻小說和前衛計算機科學的領域,現在,人工智能已成為社會不可分割的一部分,人們對人工智能進行了大量的投資。

今年早些時候,三名主要的深度學習研究人員獲得了圖靈獎,這是對人工智能作為計算機科學的一個領域的認可,而人們對此期待已久。

David Foster,Applied Data Science 創始合夥人,《生成式深度學習》(Generative Deep Learning)(O' Reilly Media 2019 年出版)一書作者。


分享到:


相關文章: