視頻摳像摳圖越來越沒用了?不用綠幕AI摳像也分分鐘搞定

在VFX領域,或者我們日常做視頻編輯工作的過程中,綠幕摳像都是一種常見得不能再常見的技術。雖然,隨著4G網絡和相關技術的發展,現在手機也能對視頻摳像了,電腦專業的視頻後期合成軟件更進一步普及,不過綠幕視頻摳像依然是一種有一點門檻的操作。不過,當人工智能技術插進來以後,我們以往熟知的東西就變了。

視頻摳像摳圖越來越沒用了?不用綠幕AI摳像也分分鐘搞定

比如我們對著漂亮的小姐姐拍了一段實景視頻,如果想要對視頻摳像,把小姐姐從背景中摳出來換背景,那麼以往傳統的方式是基本做不到或很難做的(一人客不能說絕對),如果考慮到後期摳像合成,那麼在提前拍攝的時候就要在小姐姐背後擋著綠幕,這樣才可以摳像。而現在,新的人工智能技術,卻可以通過實景視頻和實景背景視頻來智能識別到前景人物,並自動摳像。

視頻摳像摳圖越來越沒用了?不用綠幕AI摳像也分分鐘搞定

這是來自華盛頓大學的一項最新研究,無需綠幕,無需手動創建 Trimap,一個具有對抗性損失的深度神經網絡,另外加上判斷合成質量的鑑別器,就能準確預測遮罩,給照片和視頻摳圖。深度神經網絡就能自動分析出 alpha 遮罩和前景色,把小姐姐的髮絲都摳得根根分明。

視頻摳像摳圖越來越沒用了?不用綠幕AI摳像也分分鐘搞定

對,又是深度神經網絡。研究人員先在 Adobe Matting 數據集中的非透明對象子集上對深度神經網絡 G 進行了監督訓練。輸入是帶人像的照片 I 和照片中的背景 B’,以及人像軟分割 S 和 運動先驗 M(僅對視頻而言)。依據輸入,網絡會預測出 alpha 遮罩 α 和前景圖像 F。而這一次,研究人員提出了用背景切換塊(Context Switching block,CS block)來取代基於殘差塊的編碼器-解碼器。


傳統的綠幕摳像實時生成完全已經成為老技術了,現在的人工智能深度學習可以直接智能識別摳像,根本就不用你用綠幕擺拍。一人客覺得,雖然技術上已經出來,離現實應用特別是普及還有一段距離,不過,當現在的人工智能芯片和算法,乃至AI框架快速普及成手機和APP的程度,你怎麼知道會發生什麼事呢?


可能,當人工智能技術成熟並普及時,也是我們目前大眾所學所用的東西終結之時。我們手中的工具,我們引以為傲的飯碗和技術,都會隨風而逝,消逝在技術發展浪潮中。當然不僅僅侷限於我們今天介紹的AI免綠幕摳像技術。


分享到:


相關文章: