ScrabbleGAN;UnrealText;跟蹤模型;G2L-Net等

今日 Paper | ScrabbleGAN;UnrealText;跟蹤模型;G2L-Net等

目錄

UnrealText:從虛擬世界合成真實場景文本圖像

ScrabbleGAN:半監督變長手寫文本生成

ROAM:遞歸優化跟蹤模型

G2L-Net:用於實時6D姿態估計的嵌入矢量特徵的全局到局部網絡

用於人體姿勢估計的多視角圖像的可穿戴IMU融合:一種幾何方法

UnrealText:從虛擬世界合成真實場景文本圖像

論文名稱:UnrealText: Synthesizing Realistic Scene Text Images from the Unreal World

作者:Long Shangbang /Yao Cong

發表時間:2020/3/24

論文鏈接:https://arxiv.org/abs/2003.10608v1

https://paper.yanxishe.com/review/15414

推薦原因

這篇論文被CVPR 2020接收,提出了一種名為UnrealText的圖像合成方法,可以通過3D圖形引擎渲染逼真的圖像。3D合成引擎通過整體渲染場景和文本來提供逼真外觀,並允許訪問精確的場景信息。這篇論文通過大量實驗驗證了所提方法在場景文本檢測和識別方面的有效性。這篇論文還會生成多語言版本,以供將來對多語言場景文本檢測和識別進行研究。

今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等
今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等

ScrabbleGAN:半監督變長手寫文本生成

論文名稱:ScrabbleGAN: Semi-Supervised Varying Length Handwritten Text Generation

作者:Fogel Sharon /Averbuch-Elor Hadar /Cohen Sarel /Mazor Shai /Litman Roee

發表時間:2020/3/23

論文鏈接:https://arxiv.org/abs/2003.10557v1

https://paper.yanxishe.com/review/15413

推薦原因

這篇論文被CVPR 2020接收,考慮的是手寫文本生成的問題。

深度學習方法在手寫文本識別問題上取得了大幅的性能提高,然而由於手寫體的每個人都有獨特風格,基於深度學習的訓練樣本會受到數量的限制。收集數據是一項具有挑戰性且代價高昂的任務,而隨後的標註任務也非常困難。這篇論文使用半監督方法來減輕數據標註的負擔。與完全監督的方法相比,半監督方法除了使用標記數據之外,還使用一些未標記的樣本來提高性能,從而能更好地適應測試集中新出現的圖像。

今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等

ROAM:遞歸優化跟蹤模型

論文名稱:ROAM: Recurrently Optimizing Tracking Model

作者:Yang Tianyu /Xu Pengfei /Hu Runbo /Chai Hua /Chan Antoni B.

發表時間:2019/7/28

論文鏈接:https://arxiv.org/abs/1907.12006v3

https://paper.yanxishe.com/review/15412

推薦原因

這篇論文被CVPR 2020接收,提出了一個由反應生成和邊界框迴歸組成的追蹤模型,其中反應生成部分通過生成一個熱圖來顯示對象出現在不同的位置,邊界框迴歸部分通過迴歸相對的邊界框來定位滑動窗口的位置。為了有效地使模型適應外觀變化,這篇論文提出通過離線訓練一個遞歸神經優化器來更新追蹤模型,使模型在幾個梯度步驟內收斂,提高了更新跟蹤模型的收斂速度,同時獲得了更好的性能。在OTB, VOT, LaSOT, GOT-10K和TrackingNet基準數據集上評估了新提出的模型、ROAM和ROAM++這兩個模型,實驗結果表明新提出的方法明顯優於最先進的方法。

今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等

G2L-Net:用於實時6D姿態估計的嵌入矢量特徵的全局到局部網絡

論文名稱:G2L-Net: Global to Local Network for Real-time 6D Pose Estimation with Embedding Vector Features

作者:Chen Wei /Jia Xi /Chang Hyung Jin /Duan Jinming /Leonardis Ales

發表時間:2020/3/24

論文鏈接:https://arxiv.org/abs/2003.11089v1

https://paper.yanxishe.com/review/15408

推薦原因

這篇論文被CVPR 2020接收,要處理的是姿態估計的問題。

這篇論文提出了一個名為G2L-Net的實時6D目標姿態估計框架,包含三個部分:首先通過二維檢測從RGB-D圖像中提取粗粒度目標點雲;然後將粗粒度目標點雲加入到遷移定位網絡中進行三維分割和目標遷移預測;最後通過預測得到的分割和平移信息,將細粒度目標點雲轉化為局部正則座標,用於訓練旋轉定位網絡來估計初始目標旋轉。在第三步中,G2L-Net通過定義逐點嵌入向量特徵來捕獲視圖感知的信息。為了計算出更精確的旋轉,G2L-Net還採用旋轉殘差估計器來估計初始旋轉與真實標籤之間的殘差,從而提高初始姿態估計的性能。在兩個基準數據集上的大量實驗表明,G2L-Net在精度和速度方面都達到了最新的水平。

今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等

用於人體姿勢估計的多視角圖像的可穿戴IMU融合:一種幾何方法

論文名稱:Fusing Wearable IMUs with Multi-View Images for Human Pose Estimation: A Geometric Approach

作者:Zhang Zhe /Wang Chunyu /Qin Wenhu /Zeng Wenjun

發表時間:2020/3/25

論文鏈接:https://arxiv.org/abs/2003.11163v1

https://paper.yanxishe.com/review/15407

推薦原因

這篇論文被CVPR 2020接收,要解決的是3D人體姿勢估計的問題。

利用可穿戴的慣性測量單元(Inertial measurement unit,IMU),這篇論文提出一種名為定向正則化網絡(Orientation Regularized Network,ORN)的幾何方法,來增強每對關節的視覺特徵。當一個關節被遮擋時,新方法可以顯著提高2D姿態估計的準確性。然後,這篇論文通過定向規則化圖形結構模型(Orientation Regularized Pictorial Structure Model,ORPSM)將多視圖2D姿勢提升到3D空間,來最小化3D和2D姿勢之間的投影誤差,以及3D姿勢和IMU方向之間的差異。這種兩步的方法明顯減少了公開數據集上的誤差。

今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等
今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等今日 Paper | ScrabbleGAN;UnrealText;跟踪模型;G2L-Net等


分享到:


相關文章: