面對複雜現象,怎樣找個靠譜的解釋?

面對複雜現象,怎樣找個靠譜的解釋?| AI那廝

對一個複雜現象能解釋得嚴絲合縫的,往往反而是那些陰謀論或訴諸超自然因素的理論。

撰文 | 王培(美國天普大學計算機與信息科學系)

“為什麼” 是最常見的問題類之一了。和“是不是”(判斷、評價) “是什麼”(識別、分類) “什麼是”(舉例、搜尋)等類問題相比,對這種 “求解釋” 問題的回答所涉及到的推理過程更為複雜。這不僅是由於答案難以找到(所有問題類都有這種情況),更常常是由於“答案” 太多而且互相矛盾,因此難以抉擇。各位讀者如果檢點當前的輿情熱點則不難發現,不論是對歷史事件還是現實現象,貌似有理的解釋俯拾皆是,但顯然不能同時都被接受,而有些更是匪夷所思到令你佩服人們的想象力。此處還有邏輯可言嗎?

解釋和歸因

對解釋性問題的回答不是傳統意義下的 “演繹” 推理,這就是說沒有一套嚴格的規則可以為一個給定的現象A找到一個正確的解釋B

。一種常見的說法是,把所有不是演繹的推理統稱為 “歸納”,但這樣一來未免抹煞了其中不同推理類型的重要差別。

在推理分類上做出奠基性貢獻的是皮爾斯(Charles Sanders Peirce)。他最早提出解釋性推理是和演繹、歸納均不同的基本推理形式。皮爾斯開始稱這種推理為hypothesis(假設),後改稱abduction。後面這個詞在中文中有 “溯因” “歸因” “逆推” 等譯法,我覺得 “歸因” 和 “歸納” 對應,更恰當些,因此一般用這個詞。在Deduction, Induction, and Hypothesis 一文[1]中,皮爾斯給出的例子是:

  • 演繹(deduction):從“這些豆子是從這個袋子裡取出來的” 和 “這個袋子裡的豆子都是白的” 推出 “這些豆子是白的”;
  • 歸納(induction):從“這些豆子是從這個袋子裡取出來的” 和 “這些豆子是白的” 推出 “這個袋子裡的豆子都是白的”;
  • 歸因(hypothesis/abduction):從“這些豆子是白的” 和 “這個袋子裡的豆子都是白的” 推出 “這些豆子是從這個袋子裡取出來的”。

這可以概括成下面的一般格式:

  • 演繹:從“S是M” 和 “M是P” 推出 “S是P”
  • 歸納:從“S是M” 和 “S是P” 推出 “M是P”
  • 歸因:從“S是P” 和 “M是P” 推出 “S是M”

這樣一來,歸納和歸因分別可以通過將演繹的一個前提與其結論換位而得到,因此均可以被看成是 “逆演繹”,而這二者仍有不同。

皮爾斯指出,儘管歸納和歸因都不具有演繹的 “保真性”,它們仍提供重要的推理功能。歸納的功能是 “概括” (也稱 “泛化” 或 “一般化”),這就是說盡管 “S是M” 和 “S是P” 不能保證 “M是P” 的正確性,但如果這樣的S有很多,其累積效果的確會使得我們接受 “是M的也都是P”,那也就是 “M是P” 了。另一方面,歸因的功能是 “解釋”,這就是說盡管 “S是P” 和 “M是P” 不能保證 “S是M” 的正確性,但“S是M” (作為假說)和 “M是P” (作為背景知識)可以解釋 “S是P” (作為觀察結果)為什麼會發生。這樣一來,這兩種推理形式各自在思維活動中的貢獻就清楚了,而且它們和演繹所提供的論證功能是互補的,彼此並無矛盾。對上面那個例子來說,如果人們知道一個袋子裡的豆子都是白的,的確常常會以為看到的白豆子是從袋裡取出來的,儘管這顯然只是眾多可能性中的一種。

確切地說,皮爾斯關於演繹-歸納-歸因的觀點包含兩個方面:



1. 這三者的形式及其換位關係,

2. 這三者在思維活動中的功能。

由於前一個方面的工作是在 “詞項邏輯” (以亞里士多德三段論為代表)的形式框架中表述的,而隨著數理邏輯的興起,詞項邏輯的優勢地位被謂詞邏輯所取代(這是另一個話題了,在此不展開),皮爾斯在推理類型劃分上的思想遺產主要是在第二個方面被後人繼承了。在近年的研究[2]中,演繹-歸納-歸因基本上是依照它們的功能(論證-概括-解釋)來區分的,而其形式化定義則是在謂詞邏輯的框架中給出的,比如說如果P(a) 和 Q(a) 分別表示對象a 具有性質P和Q,而且P(x) → Q(x) 表示 “凡有性質P的也有性質Q”,那麼這三種推理可以概括成下面的格式:

  • 演繹:從P(a) 和 P(x) → Q(x) 推出 Q(a)
  • 歸納:從P(a) 和 Q(a) 推出 P(x) → Q(x)
  • 歸因:從Q(a) 和 P(x) → Q(x) 推出 P(a)

雖然歸納和歸因仍可以通過換位從演繹中得到,這種表示已經不再有詞項邏輯中那種漂亮的統一性。出於多種考慮,在我自己的推理模型[3]中還是用了皮爾斯最初的詞項邏輯形式,但將其從二值邏輯改造成多值邏輯,即把 “真假” 看成程度之別,而不同的推理形式則是以不同的方式和強度為結論提供證據。這方面我在《證實、證偽、證明、證據:何以為“證”?》(見王培“AI那廝”專欄)之中已有介紹,這裡就不再重複了。

解釋“解釋”

以前面的介紹為基礎,我們可以解釋一下 “解釋” 之中為什麼有那麼多問題。作為難兄難弟,歸因的麻煩不比歸納的少(見《科學的光榮,哲學的醜聞:怎麼對付“歸納”帶來的麻煩?》)而且二者不乏 “同病” 之處,比如其結論只能獲得相對較低的可信度,而無論前提如何可信。

當討論從定義相對嚴格的 “歸因” 轉到相對含糊的 “解釋”,問題就更多了。根據目前一般的理解,給定現象A,假說B只要不是明顯為假,而且能夠和背景知識K一起(演繹地)推導出A,就算是個可能的解釋。這樣一來,對同一個A,解釋B可以有很多個,以至於似乎可以用任何B去解釋A。比如說某人做了一件好事,有人自然會以此作為此人是好人的證據,而往往也有人會說這事恰恰說明了此人的偽善和用心險惡;如果某人做了一件壞事,有人會以此證明此人是壞人,而同時另有人會為其找出不得已的理由,甚至說其結果 “實際上從長遠看來不失為一樁好事”。

如果你決心不惜一切代價來捍衛某種信仰,那麼不管發生什麼都可以據此提供解釋,並進一步支持這個信仰。比如說有人認為我們是生活在外星人構建的一個模擬環境之中。不管發生什麼現象,這個解釋總是成立的。更有人用此類方法顯示自己信仰的某種理論相對於科學理論的優越性:每個科學理論都有目前尚不能解釋的現象,而這些理論卻可以解釋一切。

對於這種事我們能說什麼呢?


首先,即使某個解釋聽上去匪夷所思,這也未必說明它 “不符合邏輯”。根據前面的說明不難看到,根據對解釋的寬泛定義,在不限制什麼可以算作 “背景知識” 的情況下,人們幾乎可以用任意的理論去 “解釋” 任意的現象,所以說

這裡最常見的錯誤不是推理違規,而是任意引入 “特設性” 前提。比如說在 “外星人具有超出我們理解的能力” 的前提假設下,我們的確可能是生活在它們設置的一個模擬環境中。根據類似的思路,我甚至可以堅持認為只有我本人是真實存在的,而世界(包括所有其他人)都不過是一個模擬環境中的幻象而已。這個結論雖然聽起來瘋狂,卻是完全 “符合邏輯” 的,這就是說你不能期望通過辯論說服一個抱有這種信念的人,因為你的言論也會被解釋成模擬的一部分。

對同一個現象的解釋不是唯一的,這不說明每個解釋都有同樣的合理性,而恰恰是要求我們對它們進行比較,而選擇那些相對而言較好的。在這裡, “好” 不僅僅意味著能自圓其說。對一個複雜現象能解釋得嚴絲合縫的,往往反而是那些陰謀論或訴諸超自然因素的理論。一個常見的誤解就是,能解釋的現象越多的理論就越好,越 “科學”,其實儘可能多地解釋各種現象只是對一個理論的期望之一,而不是唯一的期望。對行動的指導性和概念簡單性也都是重要的。當一個理論以犧牲指導性或簡單性為代價來增加解釋力的時候,在和其它理論的競爭中未必能佔便宜。如果一個理論既可以解釋某個事件的發生也可以解釋其未發生,那就對我們的行為缺乏指導意義(我們到底要如何準備應對?),這種解釋力(或者說 “正確性”)也就不具有實際價值了。這也就是波普爾的 “證偽主義” 中的合理成分,只是指導性所導致的檢驗對一個理論一般不會有 “立判生死” 之效,而僅是在一定程度上增強或減弱這個理論的競爭力。

簡單性也是影響一個理論的競爭力的重要因素。比如說 “我們是生活在外星人構建的一個模擬環境之中” 這個假說,我們的確沒辦法證明它是錯的,但和認為 “我們是生活在一個真實世界中” 相比,這個更復雜的假說並未帶來解釋力和指導性上的任何好處,因此不值得認真對待。據說拉普拉斯在回答拿破崙為什麼他的書中不提上帝的質問時回答 “陛下,我不需要那個假設”,也是這種立場。我在《意識是腦中湧現的嗎?》之中提到還原論的問題也和這一點有關。為一個心理層面上的現象提供神經元層面(甚至原子層面)的解釋儘管在原則上仍有可能,也並非一無是處,但和一個心理層面上的解釋相比往往缺乏競爭力。

在人工智能系統中實現解釋性推理的關鍵,就是把相關結論的真實性、簡單性、有效性等都恰當地量化處理,並依照當前情況在各種解釋中進行合理選擇。這也就是說,僅僅在 “是否可能” 的水平上評價不同的解釋是不夠的,而必須能看出哪個解釋證據更多,更簡單,對未來行為更有指導性。這樣一來,那些似是而非的解釋就會逐漸在系統中被更靠譜的淘汰掉。當然,實現這種功能的基本前提就是系統有包括演繹、歸納、歸因等形式在內的推理功能。目前對機器學習系統缺乏 “解釋功能” 的批評,很大程度上也是因為用函數逼近的方法 “學習”,固然可以識別出一個照片中的物體是隻貓,但卻不會像我們那樣說 “我認為那是隻貓,因為……” ——不管你的理由是什麼,一定不是統計算法得到這個結論的理由。這也就是說

現有的主流學習算法不是不能提供解釋,而是不能提供我們期望的那種解釋,因為其結論的生成過程和我們有根本性不同。在這種情況下,用死記硬背或事後重構的法子提供解釋是不夠的。只有像人那樣思考才能提供人能理解的解釋。

因果性解釋

解釋可以進一步分成不同的種類,其中重要的一種就是為某個事件找原因。因果知識的建立主要靠歸納,而我關於歸納的基本觀點在《怎麼對付“歸納”帶來的麻煩?》一文中已經介紹了,就是不把這種知識看作對 “客觀規律” 的反映,而看作對 “主觀經驗” 的總結。歸因則是用這種知識來 “找原因”。

前面關於解釋的一般結論完全適用於因果性解釋這種特殊情況。這就是說,對一個特定的事件,原則上是沒有 “真正的原因” 這種東西的,這就和牛頓-拉普拉斯式的因果觀根本不同了。但儘管如此,在若干候選原因之間進行比較仍然是必要並且可能的,這就是說詢問某事件的原因仍是個有意義的問題,而在很多情況下大多數人還是會同意某個答案是 “正確的”。

和其它類型的解釋不同,在因果解釋中一般要求 “因” 發生在 “果” 之前,所以這種解釋會給預測未來事件提供依據。如前所述,對一個因果解釋的評價也基於其正確性、指導性和簡單性。

在絕大多數應用環境下,說 “A的原因是B” 要求二者都是可重複的事件類型,而前者的發生會導致我們對後者的預期。這個因果信念的正確程度取決於相應預期被後來的觀察證實的比例。和決定論因果觀不同,一次失敗的預期通常不會證偽一個因果信念,而是常常被解釋為其它(B之外的)因素的影響,這是由於“A的原因是B” 這樣的結論基本上都是對實際情況的簡化,其實A的發生仍有賴於C、D、E等諸事件,儘管它們沒有都被一一列出。這就和簡單性要求相關了。從原則上甚至可以說一個事件的原因是在其之前發生的所有事件的總和,但這個無比正確的結論顯然不能用來幫助我們進行預測,因此對 “原因” 的簡化描述及其由此產生的反例就成為不可避免的了。人們通常是在正確性和簡單性之間找一個平衡,即只列出那些會對結論的正確性產生重大影響的前提條件,而忽略那些只是偶爾出問題的。

對一個不可重複的事件而言,確定其原因更是沒有統一的標準。難怪對重大歷史事件的原因的爭論永遠不會終止。但不是說這種問題沒有意義。實際上,關於歷史中因果關係的討論都或明或暗地服務於 預測未來事件這一目的,也就是所謂的“以史為鑑”。因此,

關於 “A的原因” 的探尋實際上都是關於 “類似於A的事件” 的原因的,而對這個事件類的不同界定往往是這類爭論的根源


關於原因認定的另一重複雜性在於, “原因” 的概念在不同領域中的精確含義是有差別的。兒童心理學的研究表明,因果知識緣起於嬰兒對自身行為後果的認識,因此 “因” 總是 “我的行為”。隨著認知能力的發展,可以充當 “原因” 的事件逐漸被推廣到其他認知主體(人或動物)的行為,以至於無主體的自然事件。這說明 “因果” 在觀念上不僅與 “預測” 有關,而且與 “控制” 有關。這裡的 “可控” 不僅包括 “可以使其實際發生或不發生”,也包括 “可以設想其發生或不發生”。在不同的領域中,由於可控因素不同,“因果” 的用法也不同。各位不妨想想在物理學、醫學、歷史學、法學中所探尋的 “原因” 都是什麼樣的。在相關討論中常常被提及的“因果性” 和 “相關性” 之別,也常因為前者隱含著 “可控” 而後者無此要求。

回到人工智能上來,現在流行的貝葉斯網絡模型基本上只是在給定的因果信念之上做推理,而無法提出或放棄因果信念,因此仍是不夠的,更不必提那些連 “因果性” 和 “相關性” 都不區分的 “學習算法”。但這不說明人工智能在這方面必定“低人一等”。前面討論到的各種因素並非不可能在計算機系統中出現。這就是說,解釋(包括因果解釋)的生成和評價都是有邏輯可循,並且可以在計算機系統中實現的,儘管這不意味著系統對每個事件或現象都能找到唯一正確的解釋。我們在這個方向上的具體工作可見參考文獻

[4],就不在這裡談技術問題了。

參考文獻

[1] Charles Sanders Peirce, Deduction, Induction, and Hypothesis, in The Essential Peirce (Edited by Nathen Houser and Christian Kloesel)Volume 1 (1867-1893), Pages 186-199, Indiana University Press, 1992

[2] Peter A. Flach and Antonis C. Kakas (Editors), Abduction and Induction, Kluwer Academic Publishers, Dordrecht, 2000

[3] Pei Wang, Abduction in non-axiomatic logic, Working Notes of the IJCAI Workshop on Abductive Reasoning, Pages 56-63, Seattle, Washington, August 2001

[4] Pei Wang and Patrick Hammer, Issues in temporal and causal inference, Proceedings of the Eighth Conference on Artificial General Intelligence, Pages 208-217, Berlin, July 2015

注:本文所提到之作者其他文章,可進入公眾號底部菜單“精品專欄-AI那廝”查閱。點擊https://cis.temple.edu/~wangp/Chinese.html,可查閱作者所有科普文章和科普視頻。

特 別 提 示

1. 進入『返樸』微信公眾號底部菜單“精品專欄“,可查閱不同主題系列科普文章。

2. 『返樸』開通了按月檢索文章功能。關注公眾號,回覆四位數組成的年份+月份,如“1903”,可獲取2019年3月的文章索引,以此類推。

《返樸》,科學家領航的好科普。國際著名物理學家文小剛與生物學家顏寧共同出任總編輯,與數十位不同領域一流學者組成的編委會一起,與你共同求索。關注《返樸》(微信號:fanpu2019)參與更多討論。二次轉載或合作請聯繫[email protected]


分享到:


相關文章: