OpenAI、谷歌等聯合發佈最新AI報告 怎麼做才能讓AI更可被信賴?

陳溢波

隨著AI技術的應用場景越來越多,在為人們的工作、生活等帶來不少便利的同時,相伴而生的風險也不容忽視。

以人們日常學習、工作中的一個場景為例,當用戶在使用新的人工智能系統機器翻譯敏感文件時,雖然其對用戶作出了相關隱私保護方面的聲明,但這種建立在道德準則上的聲明,缺乏法律約束力,也往往難以轉化為實際行動。外界很難評估人工智能開發者到底是否表裡如一,也沒有辦法讓他們在違反道德原則的時候承擔責任。

在近日由OpenAI、Google Brain、圖靈研究所和一些歐美大學參與的一次研討會上,與會人員就上述提及的AI系統研發中可能出現的風險,從機制層面,提出了使AI更可被信賴的方法和途徑。這次研討會上的討論成果,最終也形成了一份文字報告。

總體來看,該報告認為,讓AI開發者作出可檢驗、能追責的承諾,是朝更可信賴的人工智能邁出的重要一步。而要使AI開發者的聲明或承諾達到這樣的目的,可以從體制機制、軟件機制和硬件機制三個方面著手。

OpenAI、谷歌等聯合發佈最新AI報告 怎麼做才能讓AI更可被信賴?

(截圖來自該報告作者之一謝旻希提供的中文報告文檔,注:謝旻希為牛津大學人類未來研究所人工智能治理中心政策研究員)

而除了提出這些機制上的一些辦法的具體內涵,該報告還提出了踐行這三個機制的具體可行途徑。

OpenAI、谷歌等聯合發佈最新AI報告 怎麼做才能讓AI更可被信賴?

(截圖來自該報告作者之一謝旻希提供的中文報告文檔,注:謝旻希為牛津大學人類未來研究所人工智能治理中心政策研究員)


分享到:


相關文章: