十三 發自 凹非寺
量子位 報道 | 公眾號 QbitAI
CVPR 2020中選論文放榜後,最新開源項目合集也來了。
本屆CPVR共接收6656篇論文,中選1470篇,“中標率”只有22%,堪稱十年來最難的一屆。
刨去接受率低這件事,從論文本身出發,在中選論文中還是有很多值得我們去借鑑和學習的精品。
今日GitHub上便出現了一個項目,將本屆CVPR論文開源項目做了個集合。
本文便基於此GitHub項目,對中選CVPR 2020論文的開源項目做了整理,主要內容如下:
目標檢測
論文題目:
Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection
本文首先指出了基於錨點檢測與無錨點檢測的本質區別,在於如何定義正、負訓練樣本,從而導致兩者之間的性能差距。
研究人員提出了一種自適應訓練樣本選擇 (ATSS),根據對象的統計特徵自動選擇正樣本和負樣本。它顯著地提高了基於錨點和無錨點探測器的性能,並彌補了兩者之間的差距。
最後,還討論了在圖像上每個位置平鋪多個錨點來檢測目標的必要性。
論文地址:https://arxiv.org/abs/1912.02424
代碼:https://github.com/sfzhang15/ATSS
目標跟蹤
論文題目:
MAST: A Memory-Augmented Self-supervised Tracker(注:不確定是否中選)
這篇論文提出了一種密集的視頻跟蹤模型 (無任何註釋),在現有的基準上大大超過了之前的自監督方法(+15%),並實現了與監督方法相當的性能。
首先通過深入的實驗,重新評估用於自監督訓練和重建損失的傳統選擇。其次,通過使用一個重要的內存組件來擴展架構,從而進一步改進現有的方法。而後,對大規模半監督視頻對象分割進行了基準測試,提出了一種新的度量方法:可泛化 (generalizability)。
論文地址:https://arxiv.org/abs/2002.07793
代碼:https://github.com/zlai0/MAST
實例分割
論文題目:
PolarMask: Single Shot Instance Segmentation with Polar Representation
本文提出了PolarMask方法,是一種single shot的實例分割框架。PolarMask基於FCOS,把實例分割統一到了FCN的框架下。
FCOS本質上是一種FCN的dense prediction的檢測框架,可以在性能上不輸anchor based的目標檢測方法。
貢獻在於,把更復雜的實例分割問題,轉化成在網絡設計和計算量複雜度上和物體檢測一樣複雜的任務,把對實例分割的建模變得簡單和高效。
論文地址:https://arxiv.org/abs/1909.13226
代碼:https://github.com/xieenze/PolarMask
CenterMask : Real-Time Anchor-Free Instance Segmentation
論文地址:https://arxiv.org/abs/1911.06667
代碼:https://github.com/youngwanLEE/CenterMask
Deep Snake for Real-Time Instance Segmentation
論文地址:https://arxiv.org/abs/2001.01629
代碼:https://github.com/zju3dv/snake
NAS
論文題目:
CARS: Continuous Evolution for Efficient Neural Architecture Search
在本文中,研究人員開發了一種高效的連續演化方法來搜索神經網絡。
在最近的迭代中,在一個超網中共享參數的種群中的架構,將在具有幾個epoch的訓練數據集上進行調優。下一個演化迭代中的搜索將直接繼承超網和種群,加速了最優網絡的生成。進一步採用非支配排序策略,僅保留Pareto前沿的結果,以精確更新超網。
經過0.4天的GPU連續搜索,可以生成多個模型大小和性能不同的神經網絡。這些網絡超過了基準ImageNet數據集上最先進方法產生的網絡。
論文地址:https://arxiv.org/abs/1909.04977
代碼(即將開源):https://github.com/huawei-noah/CARS
人臉表情識別
論文題目:
Suppressing Uncertainties for Large-Scale Facial Expression Recognition
本文提出了一種簡單而有效的自修復網絡(SCN),它能有效地抑制不確定性,防止深度網絡對不確定的人臉圖像進行過擬合。
具體來說,SCN從兩個不同的方面抑制了不確定性:⑴在小批量上的自關注機制,通過排名規則化對每個訓練樣本進行加權;⑵重新貼標籤機制,在排名最低的組中修改這些樣本的標籤。
論文地址:https://arxiv.org/abs/2002.10392
代碼(即將開源):https://github.com/kaiwang960112/Self-Cure-Network
人體姿態估計
2D人體姿態估計
論文題目:
The Devil is in the Details: Delving into Unbiased Data Processing for Human Pose Estimation
所有計算機視覺的任務都需要和數據處理打交道,但在關鍵點檢測問題上,數據處理顯得尤為重要。在關鍵點檢測任務上,數據處理尚未被系統的學習,因此這篇文章關注了人體關鍵點檢測問題的數據處理,認為它是算法的一個極其重要的組成部分。
在系統地分析這個問題的時候,發現現有的所有的state-of-the-art在這個環節上都會存在兩個方面的問題:一個是在測試過程中,如果使用flip ensemble時,由翻轉圖像得到的結果和原圖得到的結果並不對齊。另外一個是使用的編碼解碼(encoding-decoding)方法存在較大的統計誤差。
這兩個問題耦合在一起,產生的影響包括:估計的結果不準確、復現指標困難、有較大可能使得實驗的結果結論不可靠。
論文地址:https://arxiv.org/abs/1911.07524
代碼:https://github.com/HuangJunJie2017/UDP-Pose
Distribution-Aware Coordinate Representation for Human Pose Estimation
論文地址:https://arxiv.org/abs/1910.06278
代碼:https://github.com/ilovepose/DarkPose
3D人體姿態估計
論文題目:
VIBE: Video Inference for Human Body Pose and Shape Estimation
由於缺乏用於訓練的ground-truth三維運動數據,現有的基於視頻的最先進的方法無法生成準確和自然的運動序列。
為了解決這個問題,本文提出了身體姿態和形狀估計的視頻推理(VIBE),它利用了現有的大型動作捕捉數據集(AMASS)和未配對的、in-the-wild 2D關鍵點註釋。
關鍵創新是一個對抗性學習框架,它利用AMASS來區分真實的人類動作和由時間姿態、形狀迴歸網絡產生的動作。
論文地址:https://arxiv.org/abs/1912.05656
代碼:https://github.com/mkocabas/VIBE
Compressed Volumetric Heatmaps for Multi-Person 3D Pose Estimation
論文地址:暫無
代碼:https://github.com/anonymous-goat/CVPR-2020
點雲
點雲分類
論文題目:
PointAugment: an Auto-Augmentation Framework for Point Cloud Classification
本文提出了一種新的自動增強框架PointAugment,該框架在訓練分類網絡時自動優化和增強點雲樣本,以豐富數據多樣性。
還建立了一個可學習的點增強函數,該函數具有形狀上的變換和點上的位移,並根據分類器的學習過程,精心設計了損失函數來採用增廣後的樣本。
論文地址:https://arxiv.org/abs/2002.10876
代碼(即將開源):https://github.com/liruihui/PointAugment/
場景文本檢測/識別
論文題目:
ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network
本文提出了自適應Bezier曲線網絡(ABCNet),主要貢獻包括:⑴第一次通過參數化的Bezier曲線自適應地擬合任意形狀的文本;⑵設計了一種新穎的BezierAlign層,用於提取具有任意形狀的文本實例的精確卷積特徵;⑶方法在效率和準確性上都具有優勢。
論文地址:https://arxiv.org/abs/2002.10200
代碼(即將開源):https://github.com/Yuliang-Liu/bezier_curve_text_spottinghttps://github.com/aim-uofa/adet
超分辨率
視頻超分辨率
論文題目:
Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video Super-Resolution
本文探討了時空視頻的超分辨率任務,該任務旨在從低幀率(LFR)、低分辨率(LR)視頻中生成高分辨率(HR)慢動作視頻。
研究人員提出了一種基於LFR、LR視頻直接合成HR慢動作視頻的,單級空時視頻超分辨率框架。
除此之外,還提出了一種可變形凸STM來同時對齊和聚合時態信息,以更好地利用全局時態上下文。最後,利用深度重構網絡對HR慢動作視頻幀進行預測。
論文地址:https://arxiv.org/abs/2002.11616
代碼:https://github.com/Mukosame/Zooming-Slow-Mo-CVPR-2020
視覺語言導航
論文題目:
Towards Learning a Generic Agent for Vision-and-Language Navigation via Pre-training
本文提出了視覺和語言導航(VLN)任務的第一個預訓練和微調範例。
通過以自監督的學習方式訓練大量的圖像-文本-動作三元組,預訓練模型提供了視覺環境和語言指令的通用表示。
論文地址:https://arxiv.org/abs/2002.10638
代碼(即將開源):https://github.com/weituo12321/PREVALENT
其他
GhostNet: More Features from Cheap Operations
論文地址:https://arxiv.org/abs/1911.11907
代碼:https://github.com/iamhankai/ghostnet
AdderNet: Do We Really Need Multiplications in Deep Learning?
論文地址:https://arxiv.org/abs/1912.13200
代碼:https://github.com/huawei-noah/AdderNet
Deep Image Harmonization via Domain Verification
論文地址:https://arxiv.org/abs/1911.13239
代碼:https://github.com/bcmi/Image_Harmonization_Datasets
其他GitHub論文項目地址:
https://github.com/charlesCXK/3D-SketchAware-SSC
https://github.com/Anonymous20192020/Anonymous_CVPR5767
https://github.com/avirambh/ScopeFlow
https://github.com/csbhr/CDVD-TSP
https://github.com/ymcidence/TBH
https://github.com/yaoyao-liu/mnemonics
https://github.com/meder411/Tangent-Images
https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch
https://github.com/sjmoran/deep_local_parametric_filters
https://github.com/charlesCXK/3D-SketchAware-SSC
https://github.com/bermanmaxim/AOWS
最後,本項目是由公眾號CVer編輯Amusi整理,同時歡迎各位大佬提交issue,分享CVPR 2020開源項目。
傳送門
GitHub項目地址:
https://github.com/amusi/CVPR2020-Code
— 完 —
量子位 QbitAI · 頭條號簽約
關注我們,第一時間獲知前沿科技動態
閱讀更多 量子位 的文章