吳恩達深度學習筆記(128)

詞嵌入除偏(Debiasing Word Embeddings)

現在機器學習和人工智能算法正漸漸地被信任用以輔助或是制定極其重要的決策,因此我們想盡可能地確保它們不受非預期形式偏見影響,比如說性別歧視、種族歧視等等。

本節筆記中我會向你展示詞嵌入中一些有關減少或是消除這些形式的偏見的辦法。

吳恩達深度學習筆記(128) | NLP | 詞嵌入除偏

本節中使用術語bias時,我不是指bias本身這個詞,或是偏見這種感覺,而是指性別、種族、性取向方面的偏見,那是不同的偏見,同時這也通常用於機器學習的學術討論中。

不過我們討論的大部分內容是詞嵌入是怎樣學習類比像Man:Woman,就像King:Queen,不過如果你這樣問,如果Man對應Computer Programmer,那麼Woman會對應什麼呢?

所以這篇論文(上圖編號1所示:Bolukbasi T, Chang K W, Zou J, et al. Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings[J]. 2016.)的作者Tolga Bolukbasi、Kai-Wei Chang、James Zou、Venkatesh Saligrama和 Adam Kalai發現了一個十分可怕的結果,就是說一個已經完成學習的詞嵌入可能會輸出Man:Computer Programmer,同時輸出Woman:Homemaker,那個結果看起來是錯的,並且它執行了一個十分不良的性別歧視。如果算法輸出的是Man:Computer Programmer,同時Woman:Computer Programmer這樣子會更合理。同時他們也發現如果Father:Doctor,那麼Mother應該對應什麼呢?一個十分不幸的結果是,有些完成學習的詞嵌入會輸出Mother:Nurse。

因此根據訓練模型所使用的文本,詞嵌入能夠反映出性別、種族、年齡、性取向等其他方面的偏見,一件我尤其熱衷的事是,這些偏見都和社會經濟狀態相關,我認為每個人不論你出身富裕還是貧窮,亦或是二者之間,我認為每個人都應當擁有好的機會,同時因為機器學習算法正用來制定十分重要的決策,它也影響著世間萬物,從大學錄取到人們找工作的途徑,到貸款申請,不論你的的貸款申請是否會被批准,再到刑事司法系統,甚至是判決標準,學習算法都在作出非常重要的決策,所以我認為我們儘量修改學習算法來儘可能減少或是理想化消除這些非預期類型的偏見是十分重要的。

至於詞嵌入,它們能夠輕易學會用來訓練模型的文本中的偏見內容,所以算法獲取到的偏見內容就可以反映出人們寫作中的偏見。在漫長的世紀裡,我認為人類已經在減少這些類型的偏見上取得了進展,幸運的是對於人工智能來說,實際上我認為有更好的辦法來實現更快地減少AI領域中相比與人類社會中的偏見。雖然我認為我們仍未實現人工智能,仍然有許多研究許多難題需要完成來減少學習算法中這些類型的偏見。

吳恩達深度學習筆記(128) | NLP | 詞嵌入除偏

本節我想要做的是與你們分享一個例子,它是一篇論文的一套辦法,就是下面引用的這篇由Bolukbasi和其他人共同撰寫的論文,它是研究減少詞嵌入中偏見問題的。

就是這些,假設說我們已經完成一個詞嵌入的學習,那麼babysitter就是在這裡,doctor在這裡,grandmother在這裡,grandfather在這裡,也許girl嵌入在這裡,boy嵌入在這裡,也許she嵌在這裡,he在這裡(上圖編號1所示的區域內),所以首先我們要做的事就是辨別出我們想要減少或想要消除的特定偏見的趨勢。

為了便於說明,我會集中討論性別歧視,不過這些想法對於所有我在上個幻燈片裡提及的其他類型的偏見都是通用的。這個例子中,你會怎樣辨別出與這個偏見相似的趨勢呢?主要有以下三個步驟:

一、對於性別歧視這種情況來說,我們能做的是e_he-e_she,因為它們的性別不同,然後將e_male-e_female,然後將這些值取平均(上圖編號2所示),將這些差簡單地求平均。這個趨勢(上圖編號3所示)看起來就是性別趨勢或說是偏見趨勢,然後這個趨勢(上圖編號4所示)與我們想要嘗試處理的特定偏見並不相關,因此這就是個無偏見趨勢。在這種情況下,偏見趨勢可以將它看做1D子空間,所以這個無偏見趨勢就會是299D的子空間。我已經略微簡化了,原文章中的描述這個偏見趨勢可以比1維更高,同時相比於取平均值,如同我在這裡描述的這樣,實際上它會用一個更加複雜的算法叫做SVU,也就是奇異值分解,如果你對

主成分分析(Principle Component Analysis)很熟悉的話,奇異值分解這個算法的一些方法和主成分分析 (PCA)其實很類似。

吳恩達深度學習筆記(128) | NLP | 詞嵌入除偏

二、中和步驟,所以對於那些定義不確切的詞可以將其處理一下,避免偏見。有些詞本質上就和性別有關,像grandmother、grandfather、girl、boy、she、he,他們的定義中本就含有性別的內容,不過也有一些詞像doctor和babysitter我們想使之在性別方面是中立的。同時在更通常的情況下,你可能會希望像doctor或babysitter這些詞成為種族中立的,或是性取向中立的等等,不過這裡我們仍然只用性別來舉例說明。對於那些定義不明確的詞,它的基本意思是不像grandmother和grandfather這種定義裡有著十分合理的性別含義的,因為從定義上來說grandmothers是女性,grandfather是男性。所以對於像doctor和babysitter這種單詞我們就可以將它們在這個軸(上圖編號1所示)上進行處理,來減少或是消除他們的性別歧視趨勢的成分,也就是說減少他們在這個水平方向上的距離(上圖編號2方框內所示的投影),所以這就是第二個中和步。

吳恩達深度學習筆記(128) | NLP | 詞嵌入除偏

三、均衡步,意思是說你可能會有這樣的詞對,grandmother和grandfather,或者是girl和boy,對於這些詞嵌入,你只希望性別是其區別。那為什麼要那樣呢?在這個例子中,babysitter和grandmother之間的距離或者說是相似度實際上是小於babysitter和grandfather之間的(上圖編號1所示),因此這可能會加重不良狀態,或者可能是非預期的偏見,也就是說grandmothers相比於grandfathers最終更有可能輸出babysitting。所以在最後的均衡步中,我們想要確保的是像grandmother和grandfather這樣的詞都能夠有一致的相似度,或者說是相等的距離,和babysitter或是doctor這樣性別中立的詞一樣。這其中會有一些線性代數的步驟,但它主要做的就是將grandmother和grandfather移至與中間軸線等距的一對點上(上圖編號2所示),現在性別歧視的影響也就是這兩個詞與babysitter的距離就完全相同了(上圖編號3所示)。所以總體來說,會有許多對像grandmother-grandfather,boy-girl,sorority-fraternity,girlhood-boyhood,sister-brother,niece-nephew,daughter-son這樣的詞對,你可能想要通過均衡步來解決他們。

最後一個細節是你怎樣才能夠決定哪個詞是中立的呢

對於這個例子來說doctor看起來像是一個應該對其中立的單詞來使之性別不確定或是種族不確定。相反地,grandmother和grandfather就不應是性別不確定的詞。也會有一些像是beard詞,一個統計學上的事實是男性相比於比女性更有可能擁有鬍子,因此也許beard應該比female更靠近male一些。

因此論文作者做的就是訓練一個分類器來嘗試解決哪些詞是有明確定義的,哪些詞是性別確定的,哪些詞不是。結果表明英語裡大部分詞在性別方面上是沒有明確定義的,意思就是說性別並是其定義的一部分,只有一小部分詞像是grandmother-grandfather,girl-boy,sorority-fraternity等等,不是性別中立的。因此一個線性分類器能夠告訴你哪些詞能夠通過中和步來預測這個偏見趨勢,或將其與這個本質是299D的子空間進行處理。

最後,你需要平衡的詞對的數實際上是很小的,至少對於性別歧視這個例子來說,用手都能夠數出來你需要平衡的大部分詞對。完整的算法會比我在這裡展示的更復雜一些,你可以去看一下這篇論文了解詳細內容。

參考資料:針對性別特定詞彙的均衡算法

如何對兩個單詞除偏,比如:"actress“(“女演員”)和“actor”(“演員”)。 均衡算法適用於您可能希望僅通過性別屬性不同的單詞對。 舉一個具體的例子,假設"actress“(“女演員”)比“actor”(“演員”)更接近“保姆”。 通過將中和應用於"babysit"(“保姆”),我們可以減少與保姆相關的性別刻板印象。 但是這仍然不能保證"actress“(“女演員”)和“actor”(“演員”)與"babysit"(“保姆”)等距。 均衡算法可以解決這個問題。

均衡背後的關鍵思想是確保一對特定的單詞與49維g_⊥距離相等 。均衡步驟還可以確保兩個均衡步驟現在與e_receptionist^debiased 距離相同,或者用其他方法進行均衡。下圖演示了均衡算法的工作原理:

吳恩達深度學習筆記(128) | NLP | 詞嵌入除偏

公式的推導有點複雜(參考論文:Bolukbasi T, Chang K W, Zou J, et al. Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings[J]. 2016.) 

主要步驟如下:

吳恩達深度學習筆記(128) | NLP | 詞嵌入除偏

總結一下,減少或者是消除學習算法中的偏見問題是個十分重要的問題,因為這些算法會用來輔助制定越來越多的社會中的重要決策,在本節中分享了一套如何嘗試處理偏見問題的辦法,不過這仍是一個許多學者正在進行主要研究的領域。

參考文獻:

	The debiasing algorithm is from Bolukbasi et al., 2016, Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings
The GloVe word embeddings were due to Jeffrey Pennington, Richard Socher, and Christopher D. Manning. (https://nlp.stanford.edu/projects/glove/)


分享到:


相關文章: