「小樣本學習(few-shot learning)」2020頂會論文和代碼

「小樣本學習(few-shot learning)」2020頂會論文和代碼

本文約3123字,建議閱讀6分鐘。

本文介紹最新8篇關於知識圖譜的論文,來自Google、PSU、人大、微軟、騰訊、阿里巴巴等,包含元遷移學習、圖神經網絡、小樣本文本分類等。

【導讀】小樣本學習是學術界和工業界近年來關注的焦點。2020年以來,AAAI、WSDM、ICLR、CVPR會議論文公佈,小編整理了最新8篇關於知識圖譜的論文,來自Google、PSU、人大、微軟、騰訊、阿里巴巴等,包含元遷移學習、圖神經網絡、小樣本文本分類等,請大家查看!

「小樣本學習(few-shot learning)」2020頂會論文和代碼

1、Graph Few-shot Learning via Knowledge Transfer(通過知識遷移的圖小樣本學習),AAAI2020

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:對於具有挑戰性的半監督節點分類問題,已有廣泛的研究。圖神經網絡(GNNs)作為一個前沿領域,近年來引起了人們極大的興趣。然而,大多數gnn具有較淺的層,接收域有限,並且可能無法獲得令人滿意的性能,特別是在標記節點數量很少的情況下。為了解決這一問題,我們創新性地提出了

一種基於輔助圖的先驗知識的圖小樣本學習(GFL)算法,以提高目標圖的分類精度。具體來說,輔助圖與目標之間共享一個可轉移的度量空間,該空間以節點嵌入和特定於圖的原型嵌入函數為特徵,便於結構知識的傳遞。對四個真實世界圖形數據集的大量實驗和消融研究證明了我們提出的模型的有效性

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://arxiv.org/abs/1910.03053

2、AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning(自適應聚合GCN的小樣本學習)

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:現有的小樣本學習(FSL)方法假設源類中存在足夠的訓練樣本,可以將知識轉移到訓練樣本較少的目標類中。然而,這種假設通常是無效的,特別是在細粒度識別方面。在這項工作中,我們定義了一個新的FSL設置,

稱為few-shot fewshot learning (FSFSL),在這種情況下,源類和目標類都只有有限的訓練樣本。為了克服源類數據稀缺的問題,一個自然的選擇是從web中抓取具有類名作為搜索關鍵字的圖像。然而,爬行圖像不可避免地會受到大量噪聲(不相關的圖像)的破壞,從而影響性能。針對這一問題,我們提出了一種基於GCN的圖形卷積網絡標籤去噪(LDN)方法來去除不相關的圖像。在此基礎上,我們提出了一種基於gcn的清潔web圖像和原始訓練圖像的FSL方法。針對LDN和FSL任務,提出了一種新的自適應聚合GCN (AdarGCN)模型。利用AdarGCN,可以自動確定每個圖節點所攜帶的信息在圖結構中傳播了多少以及傳播了多遠,從而減輕了噪聲和邊緣訓練樣本的影響。大量的實驗表明,我們的AdarGCN在新的FSFSL和傳統的FSL設置下的優越性能。

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://www.zhuanzhi.ai/paper/5189982e35b0950b3dd3da91d68a5d07

3、Few-shot Natural Language Generation for Task-Oriented Dialog(面向任務對話的小樣本自然語言生成)

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:自然語言生成(NLG)模塊是面向任務的對話系統的重要組成部分,它將語義形式的對話行為轉化為自然語言的響應。傳統的基於模板或統計模型的成功通常依賴於大量註釋的數據,這對於新領域來說是不可行的。因此,在實際應用中,如何利用有限的標記數據很好地推廣NLG系統至關重要。為此,我們提出了

第一個NLG基準測試FewShotWoz來模擬面向任務的對話系統中的小樣本學習設置。進一步,我們提出了SC-GPT模型。通過對大量的NLG標註語料庫進行預訓練,獲得可控的生成能力,並通過少量的領域特定標籤進行微調,以適應新的領域。在FewShotWoz和大型的多領域woz數據集上進行的實驗表明,所提出的SC-GPT顯著優於現有的方法(通過各種自動指標和人工評估進行測量)。

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://www.zhuanzhi.ai/paper/16510460dca11e426c62e6d82031c7fc

4、Meta-Transfer Learning for Zero-Shot Super-Resolution(元遷移學習的零樣本超分)CVPR2020

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:卷積神經網絡(CNNs)通過使用大規模的外部樣本,在單幅圖像的超分辨率(SISR)方面有了顯著的改善。儘管它們基於外部數據集的性能非常出色,但它們無法利用特定圖像中的內部信息。另一個問題是,它們只適用於它們所監督的數據的特定條件。例如,低分辨率(LR)圖像應該是從高分辨率(HR)圖像向下採樣的“雙三次”無噪聲圖像。為了解決這兩個問題,

零樣本超分辨率(ZSSR)被提出用於靈活的內部學習。然而,他們需要成千上萬的梯度更新,即推理時間長。在這篇論文中,我們提出了一種利用零樣本超分辨的元轉移學習方法。準確地說,它是基於找到一個適合內部學習的通用初始參數。因此,我們可以利用外部和內部信息,其中一個梯度更新可以產生相當可觀的結果。(見圖1)。通過我們的方法,網絡可以快速適應給定的圖像條件。在這方面,我們的方法可以應用於一個快速適應過程中的一個大光譜的圖像條件。

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://www.zhuanzhi.ai/paper/060b612853dfdd5af41688d50ce946d0

5、Few-shot Text Classification with Distributional Signatures(小樣本文本分類)ICLR2020

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:在本文中,我們探討了元學習在小樣本文本分類中的應用

。元學習在計算機視覺方面表現出了很強的性能,在計算機視覺中,低級模式可以在學習任務之間轉移。然而,直接將這種方法應用於文本是具有挑戰性的——對於一個任務來說信息豐富的詞彙特性對於另一個任務來說可能是無關緊要的。因此,我們的模型不僅從單詞中學習,還利用它們的分佈特徵,這些分佈特徵編碼相關的單詞出現模式。我們的模型在元學習框架內進行訓練,將這些特徵映射到注意力分數,然後用注意力分數來衡量單詞的詞彙表示。我們證明,我們的模型在6個基準數據集(1-shot分類平均20.0%)上,在詞彙知識學習的原型網絡(Snell et al., 2017)上,在小樣本文本分類和關係分類上都顯著優於原型網絡。

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://arxiv.org/abs/1908.06039

6. Evolving Losses for Unsupervised Video Representation Learning(無監督視頻表示學習的損失演化)CVPR2020

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:我們提出了一種從大規模無標記視頻數據中學習視頻表示的新方法

。理想情況下,這種表現形式應該是通用的、可轉移的,可以直接用於新的任務,比如動作識別和零或少樣本學習。我們將無監督表示法學習描述為一個多模態、多任務學習問題,其中表示法通過精餾在不同的模式之間共享。在此基礎上,我們引入了損失函數演化的概念,利用進化搜索算法自動尋找包含多個(自監督)任務和模式的損失函數的最優組合。在此基礎上,我們提出了一種基於Zipf法則的無監督表示法評價指標,該指標使用對一個大的未標記數據集的分佈匹配作為先驗約束。這種不受監督的約束,不受任何標記的引導,與受弱監督的、特定於任務的約束產生類似的結果。提出的無監督表示學習方法在單RGB網絡中取得了良好的學習效果,並優於已有的學習方法。值得注意的是,它也比幾種基於標籤的方法(如ImageNet)更有效,除了大型的、完全標記的視頻數據集。

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://www.zhuanzhi.ai/paper/1cd13817179b2c3e512bbf00a320b4eb

7. Few-shot acoustic event detection via meta-learning(元學習的小概率語音事件檢測)ICASSP 2020

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:本文研究了小樣本語音事件檢測技術。少樣本學習能夠用非常有限的標記數據檢測新事件。與計算機視覺等其他研究領域相比,語音識別的樣本學習研究較少。我們提出了

小樣本AED問題,並探索了不同的方法來利用傳統的監督方法,以及各種元學習方法,這些方法通常用於解決小樣本分類問題。與有監督的基線相比,元學習模型具有更好的性能,從而顯示了它對新音頻事件的泛化效果。我們的分析包括初始化和領域差異的影響,進一步驗證了元學習方法在小樣本AED中的優勢。

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://www.zhuanzhi.ai/paper/1600398c5662ddbea82187c132819ea4

8. Cross-Domain Few-Shot Classification via Learned Feature-Wise Transformation(跨域小樣本分類)ICLR2020

「小樣本學習(few-shot learning)」2020頂會論文和代碼

摘要:小樣本分類旨在識別每個類別中只有少數標記圖像的新類別。現有的基於度量的小樣本分類算法通過使用學習度量函數將查詢圖像的特徵嵌入與少數標記圖像(支持示例)的特徵嵌入進行比較來預測類別。雖然已經證明了這些方法有很好的性能,但是由於域之間的特徵分佈存在很大的差異,這些方法往往不能推廣到不可見的域。在這項工作中,

我們解決了基於度量的方法在領域轉移下的少樣本分類問題。我們的核心思想是在訓練階段利用仿射變換增強圖像的特徵,模擬不同領域下的各種特徵分佈。為了捕獲不同領域中特性分佈的變化,我們進一步應用了一種學習-學習方法來搜索Feature-Wise轉換層的超參數。我們使用5個小樣本分類數據集:mini-ImageNet、CUB、Cars、Places和Plantae,在域概化設置下進行了大量的實驗和消融研究。實驗結果表明,所提出的特徵變換層適用於各種基於度量的模型,並對域轉移下的小樣本分類性能提供了一致的改進。。

「小樣本學習(few-shot learning)」2020頂會論文和代碼

論文地址

https://arxiv.org/abs/2001.08735

—完—

關注清華-青島數據科學研究院官方微信公眾平臺“ THU數據派 ”及姊妹號“ 數據派THU ”獲取更多講座福利及優質內容。


分享到:


相關文章: