吳恩達深度學習筆記(82)-深度卷積神經網絡的發展史

為什麼要探索發展史(實例分析)?

我們首先來看看一些卷積神經網絡的實例分析,為什麼要看這些實例分析呢?

上週我們講了基本構建,比如卷積層、池化層以及全連接層這些組件。

事實上,過去幾年計算機視覺研究中的大量研究都集中在如何把這些基本構件組合起來,形成有效的卷積神經網絡。

最直觀的方式之一就是去看一些案例,就像很多人通過看別人的代碼來學習編程一樣,通過研究別人構建有效組件的案例是個不錯的辦法。實際上在計算機視覺任務中表現良好的神經網絡框架往往也適用於其它任務,也許你的任務也不例外。

也就是說,如果有人已經訓練或者計算出擅長識別貓、狗、人的神經網絡或者神經網絡框架,而你的計算機視覺識別任務是構建一個自動駕駛汽車,你完全可以借鑑別人的神經網絡框架來解決自己的問題。

最後,學完這幾節課,你應該可以讀一些計算機視覺方面的研究論文了,我希望這也是你學習本課程的收穫。當然,讀論文並不是必須的,但是我希望當你發現你可以讀懂一些計算機視覺方面的研究論文或研討會內容時會有一種滿足感。言歸正傳,我們進入主題。

這是後面幾節課的提綱,首先我們來看幾個經典的網絡。

吳恩達深度學習筆記(82)-深度卷積神經網絡的發展史

發展史

LeNet-5網絡,我記得應該是1980年代的,經常被引用的AlexNet,還有VGG網絡。這些都是非常有效的神經網絡範例,當中的一些思路為現代計算機視覺技術的發展奠定了基礎。論文中的這些想法可能對你大有裨益,對你的工作也可能有所幫助。然後是ResNet,又稱殘差網絡。

記住吶,AlexNet --> VGG --> ResNet

神經網絡正在不斷加深,對此你可能有所瞭解。ResNet神經網絡訓練了一個深達152層的神經網絡,並且在如何有效訓練方面,總結出了一些有趣的想法和竅門。

課程最後,我們還會講一個Inception神經網絡的實例分析(這個是google的哦,要認真記的)。

瞭解了這些神經網絡,我相信你會對如何構建有效的卷積神經網絡更有感覺。

即使計算機視覺並不是你的主要方向,但我相信你會從ResNet和Inception網絡這樣的實例中找到一些不錯的想法。

這裡面有很多思路都是多學科融合的產物。總之,即便你不打算構建計算機視覺應用程序,試著從中發現一些有趣的思路,對你的工作也會有所幫助。


分享到:


相關文章: