09.04 人民日報:給智能機器嵌入“道德”算法

人工智能的應用,可能是影響深遠的社會倫理試驗。應通過算法給智能機器嵌入人類的價值觀和規範,讓它們具有和人類一樣的倫理道德。

前不久,包括特斯拉首席執行官馬斯克在內的多位全球人工智能頂尖專家簽署承諾書,呼籲不要開發“人工智能自主武器”。這已經不是業界第一次警告人工智能的潛在風險了。儘管當前處理單項任務、完成人類指令的“弱人工智能”自主性還很低,人們卻不能因此忽視新技術應用的潛在隱患。

高效、聰明的人工智能並不完美。比如,人工智能存在算法缺陷。這種缺陷往往源於機器學習過程的不可解釋和不可理解,它的判斷有時就像在一個黑箱中完成,缺少透明性。無人駕駛汽車決定向左或右轉時,人們並不完全清楚它做出轉向的過程。除了傳感器故障,人們甚至無法準確找到問題原因,這就給有針對性地調整系統、判定責任帶來了障礙。正因為如此,不久前生效的歐盟《通用數據保護條例》專門規定,人工智能公司必須讓人來審查某些算法決策。

不僅有近憂,更有遠慮。放眼未來,人工智能的應用正在模糊虛擬世界和物理世界的界限,可能重塑人類的生存環境和認知形態,並由此衍生出一系列棘手的倫理、法律和安全難題。與歷史上其他技術創新相比,人工智能的倫理法律等問題受到如此大的關注,一個重要原因在於它在理念上有望實現可計算的感知、認知和行為,從而在功能上模擬人的智能和行動,進而使得機器具有了一種準人格或擬主體的特性。人類現有的法律規範、概念框架及知識儲備,能否應對人工智能發展引發的新問題,是人們不得不正視的挑戰。

針對人工智能應用的潛在風險,國際社會在標準設計、倫理道德等方面提出了一系列試圖控制智能機器系統的方案,逐漸形成一個共識原則:通過算法給智能機器嵌入人類的價值觀和規範,以此讓它們具有和人類一樣的同情心、責任心、羞恥感等倫理道德。人們希望,人工智能的算法遵循“善法”,在完成人類難以完成的任務同時,吸取人類道德規範“善”的一面,從而達到控制機器風險的目的。畢竟,任何算法都只是實現目的的工具或手段,“善”的結果才是人類的追求目標。

實際上,通過編寫代碼和算法來控制機器的設想並不新鮮。70多年前,美國科幻作家阿西莫夫提出“機器人三定律”,構想了通過內置的“機器倫理調節器”,設定機器人不得危害人類的原則。而今,計算機專家、倫理學家、社會學家、心理學家等正在共同努力,走在實踐這一設想的路上。

人類對人工智能發展的遠慮或許來得早了點,但未雨綢繆體現的正是人類的智慧和洞見,我們不能等到人工智能深度介入人類生活後才思考如何與之相處的問題。與機器相處的和諧度,應是人類開發利用人工智能的重要標尺。畢竟,人工智能的應用,不僅僅是一場科技創新,也可能是影響深遠的社會倫理試驗。

“人工智能的短期影響由控制它的人決定,而長期影響則取決於人工智能是否完全為人所控制。”這是知名物理學家霍金給人類留下的警示。我們不必被人工智能的風險所嚇倒,但在享受人工智能福利的同時,也需要劃好倫理道德、法律規則等紅線。

科普百分百·助力科普中國,讓科學知識在網上和生活中流行起來。溫馨提示:以上為科普百分百網上閱讀所瀏覽內容,轉載分享只為知識傳播和學習宣傳,本文內容僅代表原作者觀點,如有意見建議,請私信留言,我們會及時處理。歡迎關注,謝謝。


分享到:


相關文章: