03.08 從人類意義的映射開始 如何定義以自然與道德為先的AI

文 | AI國際站 唐恩

編 | 艾娃

1969年7月20日,第一個人類降落在月球上。五十年後,我們迫切需要另一個“月球”來解決我們時代中一些緊迫而壓倒性的重大問題,從氣候危機到民主的衰落,再到動盪的勞動力市場和社會的動盪,指數數字技術-尤其是人工智能(AI)。

從人類意義的映射開始 如何定義以自然與道德為先的AI

在過去的十年中,我們將技術視為最終解決問題的信念,而任何形式的創新都與技術進步息息相關。但是,隨著硅谷失去了某些光環,甚至可以說是合法性,我們已經意識到,實現人性化未來的最關鍵因素是人類,尤其是我們如何與人與人以及我們所居住的星球聯繫起來。我們這個時代真正的月亮是生態,社會和情感創新。

但是請不要誤會:人工智能就在這裡,它將改變一切。但是這些積極的變化嗎?隨著AI對我們的工作,生活,娛樂甚至愛的方式產生如此巨大的影響,我們的思維能力是否足夠大?人工智能如何成為我們的同伴,不僅僅實現我們的未來,還實現我們的人類?

Wired創始人凱文·凱利(Kevin Kelly)在2016年宣稱:“接下來的10,000家初創企業的商業模式很容易預測:採用X並添加AI”。這可能是事實,但同時,令人失望的是,大多數突破性AI令人失望已設計並採用了各種應用程序,從基於大量數據的模式分析,Deep Mind's Alpha Go風格的強化學習到執行創造性任務的生成對抗網絡,主要是為了提高效率(對企業而言)和/或便利性(對於消費者)。

儘管這些都是有價值的好處,但越來越多的人擔心我們正在屈服於“強迫還原主義”範式(借用前麻省理工學院媒體實驗室主任喬伊託的話),使自己陷入純粹的機械化,功利主義的技術模型。隨著AI變得越來越強大和更具侵略性,它不可避免地會改變我們的世界,以與這些設計原則保持一致。正如英飛凌首席執行官Reinhard Pless博士所言,後果可能是充滿“單色社會”的世界。

還有其他擔憂:非良性行為者,無意識和有意識的偏見通知算法並引發新的數字鴻溝,操縱甚至是壓迫,監視社會的威脅,人類變成超級優化的機器,而不是超級智能很快有可能統治人類或最終使我們過時。

從人類意義的映射開始 如何定義以自然與道德為先的AI

想要:與自然融合的非二進制AI

最後,還有一個更重要的哲學問題觸及問題的核心:今天的AI是基於亞里士多德,笛卡爾和萊布尼茲的傳統的二進制系統。人工智能研究人員吐溫·劉(Twain Liu)辯稱:“當生命和智力共同作用於XY時,二進制將一切都簡化為0和1。它使機器讀取和處理定量數據變得更加方便,高效和具有成本效益,但這是以我們的語言,文化,價值觀和經驗的細微差別,豐富性,上下文,維度和動態為代價的。”

我們從自然界中獲得一些線索,這絕非二進制。例如,量子研究表明,粒子可以具有同時處於0和1的糾纏疊加狀態-就像中國的陰陽概念一樣,陰陽強調了宇宙中和我們中男性和女性的共生動力學。劉寫道:“自然不會將自己歸入二進制文件。那麼為什麼我們要在計算中做到這一點呢?”

“從人類意義的映射開始,現在定義了人類意義”

關於AI的未來,我們還應該研究自然界的另一個原因:正如技術歷史學家喬治·戴森(George Dyson)所說,自然界正在取代數字編程。他指出,不再有任何算法模型能夠掌握Facebook動態圖中美麗的混沌現象。Facebook是一臺其他機器無法理解的機器,更不用說人類智能了。他寫道:“成功的社交網絡不再是社交圖譜的模型,而是社交圖譜。”更進一步:“最初以人類意義的映射現在定義了人類意義,並且已經開始控制而不是簡單地對人類思想進行分類或索引。”

他總結說:“自然界依靠模擬編碼和模擬計算來實現智能和控制。沒有編程,沒有代碼。對於那些在機器之間尋求真正的智能,自治和控制的人來說,模擬計算而不是數字計算的領域是值得關注的地方。”

從人類意義的映射開始 如何定義以自然與道德為先的AI

如果我們將AI視為出色的優化器,它將使我們優化至死

這表明,任何更復雜的人工智能願景都必須超越三個當前的概念侷限性:它必須從二進制轉變為交叉形式,從效率轉變為有效性,從開發轉變為自然嵌入。

儘管道德,可解釋或負責任的人工智能概念值得稱讚,但它們還不夠,因為它們都仍處於我們希望規範解決問題的人工智能的範圍之內。但是,我們必須停止將AI視為偉大的問題解決者,並克服我們的工程思維方式。相反,我們應該更全面地考慮AI,不僅是關於AI的目的和成果,還在於其運作方式。

人工智能必須從人文和藝術領域汲取靈感,並深入到我們的話語和批判性思維傳統中,因此必須具有倫理道德,不僅要在外部依從意義上,而且要在真正關懷意義上。它必須尊重事實,這意味著,有時它必須滿足於不是最具影響力,最快或最具成本效益的解決方案。

如果我們將AI簡化為出色的優化程序,它將使我們優化至死。要將AI與人的尊嚴聯繫起來,我們必須以尊嚴對待自己。為了確保我們最終不會陷入無靈魂機器的“單色社會”,我們必須將靈魂注入AI。

從人類意義的映射開始 如何定義以自然與道德為先的AI

從“以人為本”到有意識

但是,這意味著我們已經超越了人類中心主義的類型,而人類中心主義則潛藏在諸如“以人為中心的AI”之類的通用分母術語之後,這些術語是從設計界借來的,現在由諸如以同名名字的斯坦福大學以人為中心的研究所所推動人工智能或“人道技術”,由人道技術中心推廣的術語。甚至由嚴謹的IEEE(全球工程師專業組織)道德的AI標準所倡導的對“人類福祉”的關注似乎也未能解決我們圍繞AI所做的所有努力中最頑固的認知偏見-我們這樣做是值得的當然可以理解,偏向人類。

然而,在由於我們對行星資源的粗心,自私甚至是無知的剝削造成的未決生態災難時期,越來越明顯的是,最存在的威脅不僅對我們自己的福祉,而且對我們周圍世界的福祉(在事物的宏偉計劃中,我們只是其中的一小部分。因此,專注於促進人類福祉和繁榮的“以人為本”的AI不再是無可爭議的目標。具有生態意識和倫理道德的AI必須超越理性主義者和新自由主義思想所塑造的人類中心主義。

在非西方文化中可以找到一種可能的替代方法。例如,日本萬物有靈論者的神道教文化認為,有生命和無生命的事物都有一種精神:從死者到每隻動物,每朵花,每一個灰塵,每一個機器。在一個日益世俗化的現代社會中敬拜人類的才智和技術一個世紀之後,萬物有靈論使我們回到了多神論的世界觀。

像萬物有靈論一樣,世界各地的土著社區都認為所有事物都是相互關聯的。土著學者Jason Edward Lewis,Noelani Arista,Archer Pechawis和Suzanne Kite在麻省理工學院的一篇文章中寫道:“土著認識論並沒有將抽象或概括視為智力參與的自然良好或更高層次。”土著文化提供尊重和與“我們的非人類親屬”相關的儀式和禮儀,因為“人類既不是高度也不是創造的中心”。作者提出:“作為一個物種,我們想出如何尊重和互惠地對待這些新的非人類親屬的方式,而不僅僅是作為其創造者的工具,或更糟糕的是奴隸。”

這包括人工智能,他們要求我們接受我們的“親戚圈子”。

這樣的土著AI在所有有生命或無生命的事物上,都具有奇異的多重性,時間(和進度)的線性的非線性,外在知識的內在性,交易之間的關係以及人和土地健康的生活質量。

從人類意義的映射開始 如何定義以自然與道德為先的AI

哪裡是終點

只有這種新型的AI才能克服導致資源開發和玩世不恭的贏家通吃心態的二元論。它使我們人類能夠促進跨代,跨文化和跨社會經濟階層的創新,而不僅僅是在我們同質的部落中。它使我們能夠集體解決當今時代的真正大問題,例如氣候危機或我們社會中日益嚴重的裂痕,以及與“其他”(包括非人類親屬)建立聯繫的需要。

美麗意味著本質上是人類,同時比我們更大:美學,道德規範以及我們所居住的相互聯繫的生態。它描述了與世界的感官關係,一種和諧與調和。這也意味著生物和神經多樣性:我們的關係,組織和我們作為家園而不是機器的工作的概念,因為它們是各種各樣的,不一定一致的種族,文化,認知和情感認同。

美麗是我們所關注的事物,是感動我們卻超越我們的事物。美麗是目的,而不僅僅是手段。美麗就是品質。美是在品質。


分享到:


相關文章: