CVPR 2020論文開源項目一頁看盡,附代碼論文

十三 發自 凹非寺
量子位 報道 | 公眾號 QbitAI

CVPR 2020中選論文放榜後,最新開源項目合集也來了。

本屆CPVR共接收6656篇論文,中選1470篇,“中標率”只有22%,堪稱十年來最難的一屆

CVPR 2020論文開源項目一頁看盡,附代碼論文

刨去接受率低這件事,從論文本身出發,在中選論文中還是有很多值得我們去借鑑和學習的精品。

今日GitHub上便出現了一個項目,將本屆CVPR論文開源項目做了個集合。

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文便基於此GitHub項目,對中選CVPR 2020論文的開源項目做了整理,主要內容如下:

CVPR 2020論文開源項目一頁看盡,附代碼論文

目標檢測

論文題目:

Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文首先指出了基於錨點檢測與無錨點檢測的本質區別,在於如何定義正、負訓練樣本,從而導致兩者之間的性能差距。

研究人員提出了一種自適應訓練樣本選擇 (ATSS),根據對象的統計特徵自動選擇正樣本和負樣本。它顯著地提高了基於錨點和無錨點探測器的性能,並彌補了兩者之間的差距。

最後,還討論了在圖像上每個位置平鋪多個錨點來檢測目標的必要性。

論文地址:https://arxiv.org/abs/1912.02424

代碼:https://github.com/sfzhang15/ATSS

目標跟蹤

論文題目:

MAST: A Memory-Augmented Self-supervised Tracker(注:不確定是否中選)

CVPR 2020論文開源項目一頁看盡,附代碼論文

這篇論文提出了一種密集的視頻跟蹤模型 (無任何註釋),在現有的基準上大大超過了之前的自監督方法(+15%),並實現了與監督方法相當的性能。

首先通過深入的實驗,重新評估用於自監督訓練和重建損失的傳統選擇。其次,通過使用一個重要的內存組件來擴展架構,從而進一步改進現有的方法。而後,對大規模半監督視頻對象分割進行了基準測試,提出了一種新的度量方法:可泛化 (generalizability)。

論文地址:https://arxiv.org/abs/2002.07793

代碼:https://github.com/zlai0/MAST

實例分割

論文題目:

PolarMask: Single Shot Instance Segmentation with Polar Representation

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文提出了PolarMask方法,是一種single shot的實例分割框架。PolarMask基於FCOS,把實例分割統一到了FCN的框架下。

FCOS本質上是一種FCN的dense prediction的檢測框架,可以在性能上不輸anchor based的目標檢測方法。

貢獻在於,把更復雜的實例分割問題,轉化成在網絡設計和計算量複雜度上和物體檢測一樣複雜的任務,把對實例分割的建模變得簡單和高效。

論文地址:https://arxiv.org/abs/1909.13226

代碼:https://github.com/xieenze/PolarMask

CenterMask : Real-Time Anchor-Free Instance Segmentation

論文地址:https://arxiv.org/abs/1911.06667

代碼:https://github.com/youngwanLEE/CenterMask

Deep Snake for Real-Time Instance Segmentation

論文地址:https://arxiv.org/abs/2001.01629

代碼:https://github.com/zju3dv/snake

NAS

論文題目:

CARS: Continuous Evolution for Efficient Neural Architecture Search

CVPR 2020論文開源項目一頁看盡,附代碼論文

在本文中,研究人員開發了一種高效的連續演化方法來搜索神經網絡。

在最近的迭代中,在一個超網中共享參數的種群中的架構,將在具有幾個epoch的訓練數據集上進行調優。下一個演化迭代中的搜索將直接繼承超網和種群,加速了最優網絡的生成。進一步採用非支配排序策略,僅保留Pareto前沿的結果,以精確更新超網。

經過0.4天的GPU連續搜索,可以生成多個模型大小和性能不同的神經網絡。這些網絡超過了基準ImageNet數據集上最先進方法產生的網絡。

論文地址:https://arxiv.org/abs/1909.04977

代碼(即將開源):https://github.com/huawei-noah/CARS

人臉表情識別

論文題目:

Suppressing Uncertainties for Large-Scale Facial Expression Recognition

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文提出了一種簡單而有效的自修復網絡(SCN),它能有效地抑制不確定性,防止深度網絡對不確定的人臉圖像進行過擬合。

具體來說,SCN從兩個不同的方面抑制了不確定性:⑴在小批量上的自關注機制,通過排名規則化對每個訓練樣本進行加權;⑵重新貼標籤機制,在排名最低的組中修改這些樣本的標籤。

論文地址:https://arxiv.org/abs/2002.10392

代碼(即將開源):https://github.com/kaiwang960112/Self-Cure-Network

人體姿態估計

2D人體姿態估計

論文題目:

The Devil is in the Details: Delving into Unbiased Data Processing for Human Pose Estimation

CVPR 2020論文開源項目一頁看盡,附代碼論文

所有計算機視覺的任務都需要和數據處理打交道,但在關鍵點檢測問題上,數據處理顯得尤為重要。在關鍵點檢測任務上,數據處理尚未被系統的學習,因此這篇文章關注了人體關鍵點檢測問題的數據處理,認為它是算法的一個極其重要的組成部分。

在系統地分析這個問題的時候,發現現有的所有的state-of-the-art在這個環節上都會存在兩個方面的問題:一個是在測試過程中,如果使用flip ensemble時,由翻轉圖像得到的結果和原圖得到的結果並不對齊。另外一個是使用的編碼解碼(encoding-decoding)方法存在較大的統計誤差。

這兩個問題耦合在一起,產生的影響包括:估計的結果不準確、復現指標困難、有較大可能使得實驗的結果結論不可靠。

論文地址:https://arxiv.org/abs/1911.07524

代碼:https://github.com/HuangJunJie2017/UDP-Pose

Distribution-Aware Coordinate Representation for Human Pose Estimation

論文地址:https://arxiv.org/abs/1910.06278

代碼:https://github.com/ilovepose/DarkPose

3D人體姿態估計

論文題目:

VIBE: Video Inference for Human Body Pose and Shape Estimation

CVPR 2020論文開源項目一頁看盡,附代碼論文

由於缺乏用於訓練的ground-truth三維運動數據,現有的基於視頻的最先進的方法無法生成準確和自然的運動序列。

為了解決這個問題,本文提出了身體姿態和形狀估計的視頻推理(VIBE),它利用了現有的大型動作捕捉數據集(AMASS)和未配對的、in-the-wild 2D關鍵點註釋。

關鍵創新是一個對抗性學習框架,它利用AMASS來區分真實的人類動作和由時間姿態、形狀迴歸網絡產生的動作。

論文地址:https://arxiv.org/abs/1912.05656

代碼:https://github.com/mkocabas/VIBE

Compressed Volumetric Heatmaps for Multi-Person 3D Pose Estimation

論文地址:暫無

代碼:https://github.com/anonymous-goat/CVPR-2020

點雲

點雲分類

論文題目:

PointAugment: an Auto-Augmentation Framework for Point Cloud Classification

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文提出了一種新的自動增強框架PointAugment,該框架在訓練分類網絡時自動優化和增強點雲樣本,以豐富數據多樣性。

還建立了一個可學習的點增強函數,該函數具有形狀上的變換和點上的位移,並根據分類器的學習過程,精心設計了損失函數來採用增廣後的樣本。

論文地址:https://arxiv.org/abs/2002.10876

代碼(即將開源):https://github.com/liruihui/PointAugment/

場景文本檢測/識別

論文題目:

ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文提出了自適應Bezier曲線網絡(ABCNet),主要貢獻包括:⑴第一次通過參數化的Bezier曲線自適應地擬合任意形狀的文本;⑵設計了一種新穎的BezierAlign層,用於提取具有任意形狀的文本實例的精確卷積特徵;⑶方法在效率和準確性上都具有優勢。

論文地址:https://arxiv.org/abs/2002.10200

代碼(即將開源):https://github.com/Yuliang-Liu/bezier_curve_text_spottinghttps://github.com/aim-uofa/adet

超分辨率

視頻超分辨率

論文題目:

Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video Super-Resolution

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文探討了時空視頻的超分辨率任務,該任務旨在從低幀率(LFR)、低分辨率(LR)視頻中生成高分辨率(HR)慢動作視頻。

研究人員提出了一種基於LFR、LR視頻直接合成HR慢動作視頻的,單級空時視頻超分辨率框架。

除此之外,還提出了一種可變形凸STM來同時對齊和聚合時態信息,以更好地利用全局時態上下文。最後,利用深度重構網絡對HR慢動作視頻幀進行預測。

論文地址:https://arxiv.org/abs/2002.11616

代碼:https://github.com/Mukosame/Zooming-Slow-Mo-CVPR-2020

視覺語言導航

論文題目:

Towards Learning a Generic Agent for Vision-and-Language Navigation via Pre-training

CVPR 2020論文開源項目一頁看盡,附代碼論文

本文提出了視覺和語言導航(VLN)任務的第一個預訓練和微調範例。

通過以自監督的學習方式訓練大量的圖像-文本-動作三元組,預訓練模型提供了視覺環境和語言指令的通用表示。

論文地址:https://arxiv.org/abs/2002.10638

代碼(即將開源):https://github.com/weituo12321/PREVALENT

其他

GhostNet: More Features from Cheap Operations

論文地址:https://arxiv.org/abs/1911.11907

代碼:https://github.com/iamhankai/ghostnet

AdderNet: Do We Really Need Multiplications in Deep Learning?

論文地址:https://arxiv.org/abs/1912.13200

代碼:https://github.com/huawei-noah/AdderNet

Deep Image Harmonization via Domain Verification

論文地址:https://arxiv.org/abs/1911.13239

代碼:https://github.com/bcmi/Image_Harmonization_Datasets

其他GitHub論文項目地址:

https://github.com/charlesCXK/3D-SketchAware-SSC

https://github.com/Anonymous20192020/Anonymous_CVPR5767

https://github.com/avirambh/ScopeFlow

https://github.com/csbhr/CDVD-TSP

https://github.com/ymcidence/TBH

https://github.com/yaoyao-liu/mnemonics

https://github.com/meder411/Tangent-Images

https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch

https://github.com/sjmoran/deep_local_parametric_filters

https://github.com/charlesCXK/3D-SketchAware-SSC

https://github.com/bermanmaxim/AOWS

最後,本項目是由公眾號CVer編輯Amusi整理,同時歡迎各位大佬提交issue,分享CVPR 2020開源項目。

傳送門

GitHub項目地址:
https://github.com/amusi/CVPR2020-Code

— 完 —

量子位 QbitAI · 頭條號簽約

關注我們,第一時間獲知前沿科技動態


分享到:


相關文章: