吳恩達說“將引領下一波機器學習技術”的遷移學習到底好在哪?

吳恩達說“將引領下一波機器學習技術”的遷移學習到底好在哪?


作者 | Cloudera Fast Forward Labs

譯者 | Jianjun ZHANG

出品 | AI科技大本營

【導讀】兩年前,吳恩達在 NIPS 2016 的 Tutorial 上曾說“在監督學習之後,遷移學習將引領下一波機器學習技術商業化浪潮。”現實中不斷有新場景的出現,遷移學習可以幫助我們更好地處理遇到的新場景。遷移學習到底有哪些優點,能夠成為現在機器學習算法的新焦點?本文將通過與深度學習進行對比,讓大家在應用層面瞭解遷移學習的原理及其優勢。

前言


深度學習在許多很難用其它方法解決的問題上取得了長足的進步。深度學習的成功歸功於它與傳統的機器學習的幾個關鍵不同點,這使得它在處理非結構化數據的時候能夠大放異彩。如今,深度學習模型可以玩遊戲,檢測癌症,與人類交談,以及駕駛汽車。

但是,使深度學習強大的這幾個不同點同時也使得其成本巨大。你可能聽說過深度學習的成功需要龐大的數據量,昂貴的硬件設施,甚至更加昂貴的精英工程人才。現在,一些公司開始對那些可以減少成本的創新想法和技術特別興奮。比如多任務學習(Multi-task learning),這是一種可以讓機器學習模型一次性從多個任務中進行學習的方法。這種方法的其中一種好處就是,可以減少對訓練數據量的需求。

在這篇文章中,我們將會介紹遷移學習(transfer learning),一種可以讓知識從一個任務遷移到另一個任務中的機器學習方法。遷移學習不需要為你的問題重新開發一個完全定製的解決方案,而是允許你從相關問題中遷移知識,以幫助你更輕鬆地解決您的自定義問題。通過遷移知識,你可以利用用於獲取這些知識所需的昂貴資源,包括訓練數據,硬件設備,研究人員,而這些成本並不需要你來承擔。下面讓我們看看遷移學習何時以及是怎樣起作用的。

深度學習與傳統機器學習的不同點


遷移學習並不是一項新技術,它也不是專門為深度學習服務的,但是鑑於最近在深度學習方面取得的進展,它很令人興奮。所以首先,我們需要闡明深度學習究竟和傳統的機器學習在哪些方面有所不同。

▌深度學習進行底層抽象

機器學習是機器自動學習把預測值或者標籤分配給數值型輸入(即數據)的一種方式。

這裡的難點是,如何確切地確定這個函數,使得其對於給定輸入可以生成輸出。不對函數添加任何限制條件的話,其可能性(複雜性)是無窮無盡的。為了簡化這個任務,根據我們正在解決的問題的類型,相關領域的專業知識,或者簡單的試錯方法,我們通常會在函數上強加某種類型的結構。一種結構定義了某一類型的機器學習模型。

理論上,有無限種可能的結構可供選擇,但在實踐中,大多數機器學習用例可以通過應用少數幾種結構中的其中一種來解決:線性模型,樹的組合分類器,和支持向量機是其中的核心。數據科學家的工作就是從這一小組可能的結構中選擇正確的結構。這些模型作為黑盒對象,可以從許多成熟的機器學習庫中獲得,並且只需幾行代碼即可訓練。舉個例子,你可以用 Python 的 scikit-learn 庫像以下這樣訓練一個隨機森林模型:


吳恩達說“將引領下一波機器學習技術”的遷移學習到底好在哪?



或者用 R 來訓練一個線性迴歸模型:


吳恩達說“將引領下一波機器學習技術”的遷移學習到底好在哪?


與此不同的是,深度學習在更加底層運行。深度學習不是從一小組的模型結構中進行選擇,而是允許開發人員組成任意結構。構建塊是一些模塊或者層,可以將其想象成基本的基礎數據轉換。這意味著當我們應用深度學習時,我們需要打開黑盒子瞭解數據轉換,而不是把它當做被算法固定的一堆參數。

這種做法使得我們可以構建更加強大的模型,但是同時它也給整個模型構建過程添加了一種全新的挑戰。儘管深度學習社區已經發表了大量研究,到處都有實用的深度學習指南,或者一些經驗之談,如何有效地組合這些數據轉換依然是一個很困難的過程。

下面我們考慮一個極其簡單的卷積神經網絡圖像分類器,這裡是用一個流行的深度學習庫 PyTorch 來進行定義的。


吳恩達說“將引領下一波機器學習技術”的遷移學習到底好在哪?


因為我們使用的是底層的構建塊,我們可以輕鬆改變模型的某個單一部件(例如,將F.relu變為F.sigmoid)。這樣做可以得到一個全新的模型架構,它可能會產生截然不同的結果,而且它的可能性,毫不誇張地說,是無止境的。

▌深度學習還沒有被充分地理解

即使給定了一個固定的神經網絡架構,訓練它也是眾所周知的極其困難。首先,深度學習的損失函數通常不是凸函數,這意味著訓練並不一定產生最優的可能解。第二,深度學習現在還是非常新的技術,它的許多組成部分仍未被充分理解。舉個例子,批標準化(Batch Normalization)最近備受關注,因為似乎將其包含在某些模型中是取得良好結果的關鍵,但是專家無法就其原因達成一致。研究人員 Ali Rahimi 最近在一場機器學習會議上甚至把深度學習與鍊金術相提並論,引發了一場論戰。

▌自動特徵工程

深度學習的複雜性促進了一門叫表示學習(representation learning)的技術的發展,這也是為什麼經常有人說神經網絡做的是“自動特徵工程”。簡單來說就是,我們不是讓人類來手動從數據集中提取有效特徵,而是構建一個模型,讓模型可以自己學習對於當前任務來說哪些是需要的和有用的特徵。把特徵工程的任務交給模型來處理非常有效,但是代價是模型需要龐大的數據量,也因此需要龐大的計算能力。

▌你可以做什麼?

和其他機器學習方法相比,深度學習太過於複雜,看上去似乎無法將其整合到你的業務中。對於那些資源有限的組織機構來說,這種感覺更加強烈。

對於那些需要走在前沿的組織機構來說,可能的確需要聘請專家和購買專業的硬件設施。但是很多情況下這不是必需的。有方法可以讓你不需要進行大量的投資就可以有效地應用深度學習技術。這裡就是遷移學習可以大展拳腳的地方了。

遷移學習可以讓知識從一個機器學習模型遷移到另一個模型上。這些模型可能是對模型結構進行了長年研究、用相當多數據集對模型進行訓練、用數以年計的計算時間對模型進行優化而得到的結果。利用遷移學習,你不需要承擔上面說的任何成本就能獲得這項工作的大部分好處!

什麼是遷移學習


大多數機器學習任務始於零知識,意思是它的結構和模型的參數是從隨機猜測開始的。當我們說模型是從頭開始學習的時候,意思也是如此。

隨機猜測開始訓練的一個貓檢測模型。通過它見過的許多不同的貓,該模型從中整合出相同的模式,逐漸學習到貓是什麼。

在這種情況下,該模型學習到的所有內容都來自於你展示給它的數據。但是,這是解決問題的唯一方法嗎?在某些情況下,看上去的確如此。

貓檢測模型在不相關的應用中,例如欺詐檢測,很有可能沒有什麼用處。它只知道如何應付貓的圖片,而不是信用卡交易。

但是在某些情況下,我們似乎可以在不同任務之間共享信息。

貓檢測模型在相關任務中作用很大,例如貓的臉部定位。該檢測器已經知道怎麼檢測貓鬍子,鼻子,以及眼睛,所有這些對於定位貓的臉部都很有用處。

這就是遷移學習的本質:採用一種模型,學習如何很好地完成某項任務,將其部分或者所有知識遷移到一個相關的任務。

想想我們自己的學習經驗,就會發現這其實很有道理:我們經常遷移以往習得的技能,這樣可以更快地學習新的技能。舉個例子,學過投擲棒球的人不需要重新學習拋東西的機制就能很好地學習到怎麼扔一個足球。這些任務本質上是相通的,能夠處理其中一件任務的話自然而然可以把學習到的能力遷移到另一項任務。

在機器學習領域,可能過去 5 年最好的例子就是計算機視覺領域。現在幾乎沒人會從頭開始訓練一個圖像模型。相反,我們會從一個預訓練好的模型開始,這個模型已經知道怎麼區分一些簡單的對象,例如貓,狗,還有雨傘。學習區分圖像的模型首先學習如何檢測一些通用圖像特徵,例如邊緣,形狀,文本,以及臉部。預訓練模型具有以上這些的基本技能(還有更加具體的技能,例如區分狗和貓的能力)。

此時,預訓練的分類模型可以通過添加層或者在一個新的數據集上重新訓練,來繼承那些花費巨大而獲得的基本技能,然後將其延伸到新的任務。這就是遷移學習。

這種方法的好處很明顯。

▌遷移學習訓練數據量需求量更小

當你在一個與貓相關的新任務中重複使用你最喜愛的貓檢測模型時,你的模型已經擁有了“一百萬只貓的智慧”,這意味著你不需要再使用那麼多的貓圖片來訓練新任務了。減少訓練數據量可以讓你在只有很少數據,或者要獲得更多數據的成本過高或者不可能獲得更多數據的情況下也能訓練,同時可以讓你在比較廉價的硬件設施上更快地訓練模型。

▌遷移學習訓練模型泛化能力更強

遷移學習可以改進模型的泛化能力,或者說增強其在非訓練數據上分類良好的能力。這是因為在訓練預訓練模型時,是有目的性地讓模型可以學習到對相關任務都很有用的通用特徵。當模型遷移到一個新任務時,它將很難過擬合新的訓練數據,因為它將僅從一個很一般的知識庫中繼續學習而已。構建一個泛化能力強的模型是機器學習中最難以及最重要的部分之一。

▌遷移學習訓練過程更加魯棒

從一個預訓練的模型開始,也可以避免訓練一個帶有數百萬參數的複雜模型,這個過程非常令人沮喪,非常不穩定,而且令人困惑。遷移學習可以將可訓練參數的數量減少多達 100%,使得訓練更穩定,而且更容易調試。

▌遷移學習降低深度學習的入門門檻

最後,遷移學習降低深度學習的門檻,因為你不需要成為專家就能獲得專家級的結果。舉例來說,流行的圖像分類模型 Resnet-50,這個特定的結構是怎麼選擇的呢?這是許多深度學習專家的多年研究和實驗的結果。這個複雜的結構中包含有 2500 萬個權重,如果沒有對這個模型中各個部件的深入瞭解,從頭優化這些權重可以說是幾乎不可能的任務。幸運的是,有了遷移學習,你可以重用這個複雜的結構,以及這些優化過的權重,因此顯著降低了深度學習的入門門檻。


多任務學習又是什麼?


遷移學習是用於訓練機器學習模型的知識共享技術的其中一種,已被證明是非常有效的。目前,知識共享技術中最有趣的兩種就是遷移學習和多任務學習。在遷移學習中,模型首先在單個任務中進行訓練,然後可以用於相關任務的起始點。在學習相關任務時,原始的被遷移模型會學習如何專門處理新的任務,而不需要擔心會不會影響其在原來任務上的效果。而在多任務學習中,單個模型一次性學習處理多個任務,對模型的性能評估則取決於它學習之後能夠多好地完成這些任務。後續我們也會分析討論更過有關多任務學習的好處以及其何時能起作用。


結論


遷移學習是一項知識共享技術,其可以減少構建深度學習模型時對訓練數據量,計算能力,以及工程人才的依賴。由於深度學習可以提供與傳統機器學習相比的顯著改進,遷移學習成為一項必不可少的工具。

想知道更多機器學習、深度學習、強化學習、遷移學習這些算法是如何在具體應用和業務中發揮作用的,我們會在 2018 AI開發者大會上進行更多分享。感興趣的同學們一定要關注我們哦!

2018 AI開發者大會

只講技術,拒絕空談

2018 AI開發者大會是一場由中美人工智能技術高手聯袂打造的AI技術與產業的年度盛會!是一場以技術落地為導向的乾貨會議!大會設置了10場技術專題論壇,力邀15+硅谷實力講師團和80+AI領軍企業技術核心人物,多位一線經驗大咖帶你將AI從雲端落地。

大會日程以及嘉賓議題請查看下方海報

(點擊查看大圖)



吳恩達說“將引領下一波機器學習技術”的遷移學習到底好在哪?



分享到:


相關文章: