CVPR 2018:阿里提出新零樣本學習方法,有效解決偏置問題

CVPR 2018:阿里提出新零样本学习方法,有效解决偏置问题

新智元專欄

【新智元導讀】 本文提出了一種用於學習ZSL無偏嵌入的直接但有效的方法。這種方法假設標註的源數據和未標註的目標數據在模型訓練的過程中可以使用,在各種基準數據集上的實驗表明,該方法大幅超過了現有的ZSL方法。

論文地址:http://arxiv.org/abs/1803.11320

CVPR 2018:阿里提出新零样本学习方法,有效解决偏置问题

大多數現有的 零樣本學習(Zero-Shot Learning,ZSL) 方法都存在 強偏問題:訓練階段看不見(目標)類的實例在測試時往往被歸類為所看到的(源)類之一 。因此,在廣義ZSL設置中部署後,它們的性能很差。在本文,我們提出了一個簡單而有效的方法,稱為 準完全監督學習(QFSL) ,來緩解此問題。我們的方法遵循 直推式學習 的方式,假定標記的源圖像和未標記的目標圖像都可用於訓練。在語義嵌入空間中,被標記的源圖像被映射到由源類別指定的若干個嵌入點,並且未標記的目標圖像被強制映射到由目標類別指定的其他點。在AwA2,CUB和SUN數據集上進行的實驗表明,我們的方法在遵循廣義ZSL設置的情況下比現有技術的方法優越9.3%至24.5%,在遵循傳統ZSL設置下有0.2%至16.2%的提升。

歸納式和直推式零樣本學習

在大規模的訓練數據集的支撐下,計算機視覺中的物體識別算法在近幾年取得了突破性的進展。但是人工收集和標註數據是一項十分耗費人力物力的工作。例如,在細粒度分類中,需要專家來區分不同的類別。對於如瀕臨滅絕的物種,要收集到豐富多樣的數據就更加困難了。在給定有限或者沒有訓練圖片的情況下,現在的視覺識別模型很難預測出正確的結果。

零樣本學習 是一類可以用於解決以上問題的可行方法。零樣本學習區分2種不同來源的類,源類(source)和目標類(target),其中源類是有標註的圖像數據,目標類是沒有標註的圖像數據。為了能夠識別新的目標類(無標註),零樣本學習假定源類和目標類共享同一個語義空間。圖像和類名都可以嵌入到這個空間中。語義空間可以是屬性(attribute)、詞向量(word vector)等。在該假設下,識別來自目標類的圖像可以通過在上述語義空間中進行最近鄰搜索達成。

根據目標類的無標註數據是否可以在訓練時使用,現有的ZSL可以分為2類: 歸納式ZSL(inductive ZSL) 直推式ZSL(transductive ZSL) 。對於歸納式ZSL,訓練階段只能獲取得到源類數據。對於直推式ZSL,訓練階段可以獲取到有標註的源類數據和未標註的目標類數據。直推式ZSL希望通過同時利用有標註的源類和無標註的目標類來完成ZSL任務。

現有的ZSL方法在廣義設定下的效果遠差於傳統設定。這種不良的表現的主要原因可以歸納如下:ZSL通過建立視覺嵌入和語義嵌入之間的聯繫來實現新的類別的識別。在銜接視覺嵌入和語義嵌入的過程中,大多數現有的ZSL方法存在著

強偏 (strong bias) 的問題(如圖1所示): 在訓練階段,視覺圖片通常被投影到由源類確定的語義嵌入空間中的幾個固定的點 。這樣就導致了在測試階段中,在目標數據集中的新類圖像傾向於被分到源類當中。

CVPR 2018:阿里提出新零样本学习方法,有效解决偏置问题

圖1

為了解決以上問題,本文提出了 一種 新的直推式ZSL方法 。我們假定有標註的源數據和目標數據都可以在訓練階段得到。一方面,有標註的源數據可以用於學習圖像與語義嵌入之間的關係。另外一方面,沒有標註的目標數據可以用於減少由於源類引起的偏置問題。更確切地來說,我們的方法允許輸入圖像映射到其他的嵌入點上,而不是像其他ZSL方法將輸入圖像映射到固定的由源類確定的幾個點上。這樣有效地緩解了偏置問題。

我們將這種方法稱為 準全監督學習(Quasi-Fully Supervised Learning, QFSL) 。這種方法和傳統的全監督分類工作方式相似,由多層神經網絡和一個分類器組成,如圖2所示。神經網絡模型架構採用現有的主流架構,比如AlexNet、GoogleNet或者其他框架。在訓練階段,我們的模型使用有標註的源類數據和沒有標註的目標數據進行端到端的訓練。這使得我們的模型有一兩個個明顯的特性:(1)如果未來可以得到目標類的標註數據,那麼標註數據可以直接用於進一步訓練和改進現有的網絡模型;(2)在測試階段,我們得到的訓練模型可以直接用於識別來自於源類和目標類的圖像,而不需要進行任何修改。

本論文的主要貢獻總結如下:

提出了準全監督學習的方法來解決零樣本學習中的強偏問題。據我們所知,這是第一個採用直推式學習方法來解決廣義設定下零樣本學習問題。

實驗結果表明我們的方法在廣義設定下和傳統設定下都遠超現有的零樣本學習方法。

問題的形式化

假設存在一個源數據集 , 每張圖片 與相應的標籤 對應,其中 , S表示源類中類的個數。目標數據集 , 每張圖片 與相應的標籤 對應,其中 , T表示目標類中類的個數。ZSL的目標就是學習如下所示的預測函數 :

其中 是一個得分函數,其目標是正確的標註比其他不正確的標註具有更高的得分。 是模型 的參數, 通常使用如下的雙線性形式:

其中 和 分別表示視覺嵌入和語義嵌入。得分函數通常使用帶正則化的目標函數進行優化:

其中 表示分類損失,用於學習視覺嵌入和語義嵌入之間的映射。 表示用於約束模型複雜度的正則項。

本文假設給定標註源數據集 ,無標註目標數據集 和語義嵌入 ,學習ZSL模型,使得其既能在傳統設定下又能在廣義設定下獲取良好的表現。

QFSL模型

不同於以上描述的雙線性形式,我們將得分函數F設計成非線性形式。整個模型由深度神經網絡實現。模型包括4個模塊: 視覺嵌入子網絡,視覺-語義銜接子網絡,得分子網絡和分類器 。視覺嵌入子網絡將原始圖像映射到視覺嵌入空間。視覺-語義銜接子網絡將視覺嵌入映射到語義嵌入子網絡。得分子網絡在語義空間中產生每一類的得分。分類器根據得分輸出最終的預測結果。所有的模塊都是可微分的,包括卷積層,全連接層,ReLU層和softmax層。因此,我們的模型可以進行端到端的訓練。

視覺嵌入子網絡

現有的大多數模型採用了CNN提取得到的特徵作為視覺嵌入。在這些方法中,視覺嵌入函數θ是固定的。這些方法並沒有充分利用深度CNN的強大的學習能力。本文采用了預訓練的CNN模型來進行視覺嵌入。我們的視覺嵌入模型的主要不同之處在於可以和其他模塊一起進行優化。視覺嵌入模塊的參數記為 。除非特別說明,我們把第一個全連接層的輸出作為視覺嵌入。

視覺-語義銜接子網絡

銜接圖像和語義嵌入之間的關係對ZSL來說很重要。這種關係可以通過線性函數或者非線性函數來建模。本文采用了非線性函數 將視覺嵌入映射到語義嵌入。 由若干個全連接層來實現,其中每一個全連接層後面跟了一個非線性激活函數:ReLU。銜接函數的設計依賴於上述的視覺嵌入子網絡的架構。具體來說,我們的設計是按照所選擇CNN模型的全連接層來設計的。視覺-語義銜接子網絡和視覺嵌入網絡一起進行優化。視覺-語義銜接子網絡參數記作 。

得分子網絡

銜接視覺嵌入和語義嵌入之後,識別任務可以通過在語義嵌入空間中使用最近鄰搜索來實現。

給定一張圖像,我們首先通過視覺嵌入子網絡得到它的視覺嵌入。然後,利用視覺-語義銜接子網絡,完成從視覺嵌入到語義嵌入的映射。最後,我們通過內積計算得到投影得到的視覺嵌入和語義嵌入的得分。因此,得分函數可以表示如下:

其中 和 分別為視覺嵌入函數和視覺-語義銜接函數的權重, 是 y 的歸一化語義嵌入:

得分函數由單個全連接層來實現。它的權重使用源類和目標類的歸一化語義: 來初始化。和視覺嵌入子網絡和視覺-語義銜接子網絡不同的是,得分子網絡的權重是固定的,在訓練階段不參與更新。通過這種方式,我們的模型將圖像 投影到與視覺嵌入 相近的方向上。

需要注意的是目標類的數據沒有標註,這些數據在我們的方法中用到了訓練階段當中。因此,在訓練階段,我們的模型對於一張給定的圖像,產生了 個得分。

分類器

經過得分函數後,我們使用 路的softmax分類器產生了所有類的概率。輸入圖像的預測結果為概率最高的那個類。

模型優化

我們的方法採用了類似於由 路的softmax分類器的全監督分類模型,用來分類目標類和源類。但是,只有源類數據是有標註的,目標類數據沒有標註。我們定義了準全監督損失函數來訓練提出的模型:

通常,傳統的全監督分類器的損失函數包括分類損失 和正則化損失Ω。和傳統定義不同,我們提出的QFSL結合了一個額外的偏置損失 來 緩解強偏問題

其中, 表示預測為類 i 的概率。給定一個來自目標類的實例,該損失鼓勵模型增加所有目標類的概率和。這樣可以防止目標類被映射到源類中。

對於分類損失 ,我們採用了交叉熵。對於正則化損失Ω, 範數來約束訓練參數 。 和 用於平衡不同損失之間的權重,通過交叉驗證來確定。在訓練階段,所有標註的數據和未標註的數據混合在一起作為訓練數據。模型使用隨機梯度下降算法(SGD)進行優化。每一個批(batch)訓練圖像從混合數據集中隨機抽取。實驗結果表明我們的方法不僅有效地避免了偏置問題,還幫助建立起了更好的視覺嵌入和語義嵌入之間的聯繫。

實驗

數據集

我們在三個數據集上評估了我們的方法。這三個數據集分別為AwA2, CUB, SUN。在實驗中,我們採用屬性作為語義空間,用類平均準確度衡量模型效果。

在傳統設置下的效果比較

首先我們在傳統設置下對我們方法和現有方法。用來做對比的現有方法分為兩類:一類是是歸納式方法,包括DAP,CONSE,SSE,ALE,DEVISE,SJE,ESZSL,SYNC;另一類是直推式方法,包含UDA,TMV,SMS。與此同時,還比較了一個潛在的baseline(標記為QFSL-):只用有標註的源數據來訓練我們的模型。實驗效果如表1。可以看出,我們的方法大幅度(4.5~16.2%)提升了分類準確度。

CVPR 2018:阿里提出新零样本学习方法,有效解决偏置问题

表1. 在傳統設置下的實驗比較

在廣義設置下的效果比較

表2

可以看出,我們模型的整體性能(調和平均數H)有著9.3~24.5的明顯提高。該項指標的提高主要得益於在目標數據上的效果提升,同時又沒有在源數據上大幅度降低準確度。該結果表明,我們的方法能夠很大程度上緩解強偏問題。

討論

現實世界中,目標類的數量可能遠遠高於源類數量。然而,大多數現有ZSL數據集的源、目標數據劃分都違背了這一點。比如,在AwA2中,40個類用來做訓練,10個類用來做測試。我們在實驗上給出了隨著源數據類別的增加,QFSL在效果上如何變化。該實驗在SUN數據集上進行,72類作為目標類,隨機選取剩下的類作為源類。我們嘗試了7個大小不同的源類集,類的數量分別為{100,200,300,450,550,600,645}。用這些不同大小的源類作為訓練集,測試我們的方法,效果如圖3。由圖可以看出,隨著類別增加,模型能夠學習到更多的知識,其在目標數據集上準確度越來越高。同時,由於源數據和目標數據變得越來越不平衡,強偏問題越來越嚴重。我們方法能夠緩解強偏問題,因而其在效果上的優越性也越來越明顯。

圖3. 準全監督在SUN數據集上效果

結論

本文提出了一種用於學習ZSL無偏嵌入的直接但有效的方法。這種方法假設標註的源數據和未標註的目標數據在模型訓練的過程中可以使用。一方面,將標註的源數據映射到語義空間中源類對應的點上。另外一方面,將沒有標註的目標數據映射到語義空間中目標類對應的點上,從而有效地解決了模型預測結果向源類偏置的問題。在各種基準數據集上的實驗表明我們的方法在傳統設定和廣義設定下,大幅超過了現有的ZSL方法。

論文原文地址:

http://arxiv.org/abs/1803.11320


分享到:


相關文章: