Google新技術,可以識別你在視頻中做了哪些行為

Google新技術,可以識別你在視頻中做了哪些行為

計算機視覺正在成為技術公司的主要福音,希望將機器加速和執行迄今只能由人類實現的任務。

在過去幾個月中,eBay 已經透露了大計劃推出新的搜索功能,讓您可以使用現有的照片來查找類似的產品,而在線服裝零售商ASOS則宣佈在時尚領域有類似的內容。Shutterstock上週推出了一個整潔的新實驗功能,用戶可以根據自己的空間組合搜索庫存照片,幾天前Google的Photos應用程序獲得了寵物的新圖像識別功能。簡單來說,在計算機視覺領域,事情變得非常激動人心,我們開始 從AI領域不斷增長的投資中獲得結果。

許多計算機視覺發展已經使其成為實際的產品涉及到基於靜態圖像的應用,但是我們也開始在視頻中看到計算機視覺技術的成果。例如,俄羅斯當局在全國各地的CCTV網絡部署面部識別智能手機。 那麼正在蓬勃發展的自主汽車行業就越來越依賴機器瞭解現實行為的能力。

在這種背景下,Google推出了一個新的視頻數據集,希望將其用於加速研究到計算機視覺應用中,涉及識別視頻中的動作。AVA是原子視覺動作的首字母縮略詞,它是一個由多個標籤組成的數據集,用於在視頻序列中進行處理。


識別視頻中的動作的挑戰在複雜的場景中複雜化,其中多個動作由不同的人組合和執行。AVA本質上是一系列的YouTube URL,其中包含一組80個原子行為,可擴展到近58000個視頻段,並覆蓋日常活動,如握手,踢,擁抱,接吻,喝酒,玩樂器,散步等。


分享到:


相關文章: