人工智能發展應用中的安全風險及應對策略

摘要:人工智能擴展了人類自身能力,甚至超越了人類生物極限。作為一項革命性的技術,其應用主要涉及深度學習、視覺感知和識別、語音感知和識別、生物特徵感知和識別、語義分析、智能機器人、自動駕駛及虛擬現實等。其在為人類認識世界、改造世界增添新工具新手段新方法的同時,也給人類社會的經濟、隱私、倫理及安全帶來了風險。如何開展研發、夯實新一代人工智能發展的基礎?怎樣加強人工智能和產業發展融合、為高質量發展提供新動能?如何加強人工智能同保障和改善民生的結合,推動人工智能在人們日常工作、學習、生活中的深度運用?

人工智能(Artificial Intelligence,AI)被稱為21世紀三大尖端技術之一(基因工程、納米科學、人工智能),擴展延伸了人的智能,逐漸轉變成滲透到人類生活和社會各個方面的通用技術,為人類認識世界、改造世界增添了新工具新手段新方法。

人工智能發展應用中的安全風險及應對策略

01 推動因素與發展現狀

隨著網絡、超級計算、大數據、雲服務及傳感器等技術的發展進步,人工智能進入了重新崛起並迅猛發展的新階段。

1.現狀

從發展史來看,人工智能並不是最近才出現的新技術。1956年夏天,在美國新罕布什爾州漢諾威市舉行的“達特茅斯會議”上,“人工智能”術語的提出,標誌著它已成為一門新興學科。此後,它逐漸為世人熟悉接受,其相關理論和技術也在起伏中得到逐步發展。進入21世紀,人工智能再度進入爆發式發展應用的新階段,主要有四大推動因素:

(1)相關基礎理論、技術和應用的積累進入新階段。計算機、大數據、雲計算以及物聯網等技術的突破,特別是神經網絡(模仿人腦思考結構)、機器學習(記憶與認知)、數據庫和算法等研究取得的新成果,為人工智能產業化快速發展提供了重要技術基礎。

(2)國家戰略佈局和相關政策的有力支持。美、歐、日等發達國家和地區將人工智能上升為國家戰略,紛紛出臺政策支持人工智能技術研發和產業發展,搶佔發展先機。日本在2015年1月發佈《機器人新戰略》,未來十年將投入1000億日元用於人工智能的研發;2017年3月,又出臺《人工智能技術戰略》,進一步規劃部署人工智能的技術研發。2016年,美國白宮連續發佈《為未來人工智能做好準備》《美國國家人工智能研究和發展戰略計劃》《人工智能、自動化和經濟》等政策和研究報告,明確提出人工智能研發戰略,構建人工智能研發實施框架,並於2018年5月設立相關組織機構,協調推進人工智能研發與政企協作。2018年9月,美國國防部決定未來五年投資20億美元用於開發機器常識(MCS)項目。2018年6月,歐洲委員會提出一項數字歐洲計劃,計劃2021-2027年投入10.4億美元推進人工智能技術研發與應用。2016年12月,英國發布《人工智能:未來決策制定的機遇與影響》,闡釋了人工智能對現代社會的影響,不斷提高政府對人工智能的認知,2017年4月英國皇家學會發布《機器學習:計算機通過案例學習的能力與潛力》研究報告,呼籲英國加大對機器學習技術的研發投入,2018年英國啟動了《人工智能行業新政》,推動英國成為人工智能領域的領導者。2018年以來,德國、法國、韓國和印度等國也紛紛推出本國的人工智能戰略進行規劃佈局。

(3)各大企業加大金融資本的支持。高科技企業將人工智能視為下一代產業革命的技術引爆點進行投資。2016年9月,谷歌、微軟、亞馬遜、臉譜和IBM五家企業宣佈成立人工智能聯盟,交流共享人工智能發展經驗。由於人工智能產業化和商業前景看好,各種金融資本迅速介入。數據顯示,2016年,全球科技巨頭在人工智能領域投資就達300億美元。資本市場的火熱催生了一大批人工智能領域初創公司的誕生和快速發展。如以雲知聲、思必馳等為代表的語音識別和自然語言處理公司,以商湯科技、曠視科技、依圖科技等為代表的計算機視覺公司,它們中有很多如今已發展成為新興的獨角獸企業。2018年4月9日,中國恆大與中國科學院簽署合作協議,未來10年恆大將投資1000億元人民幣,佈局量子科技、機器人等新科技領域。

(4)應用場景的影響。谷歌公司機器人阿爾法狗戰勝韓國圍棋九段棋手李世石和圍棋世界冠軍柯潔,喚醒了世人對人工智能的高度關注。百度指數數據顯示,從2015年底開始,“人工智能”熱度逐漸升溫,且持續到現在。2015-2016年,其媒體關注度已經暴漲6倍。

2.發展現狀

目前,人工智能蓬勃發展,技術進步迅速,其應用已經滲透到我們的日常生活中,如人臉識別、刷臉支付、語音助手、無人機、服務機器人、自動駕駛和智能系統等。與互聯網、大數據、物聯網、雲服務融合的人工智能應用給我們帶來了更多的便利。專家認為,人工智能的應用將使勞動生產率提高90%;至2035年,人工智能將使年度經濟增長率提高一倍。

但是,業界普遍認為真正的人工智能尚處於發展的初級階段(認知智能發展階段),即弱人工智能階段,有“技能”,但遠遠談不上有“智能”,還沒能出現像人一樣思考和行動的真正的人工智能產品,離通過“圖靈測試”這一衡量人工智能技術水平的標準為時尚遠。有專家認為,人工智能目前處於嬰兒期,其智商大抵相當於3歲的孩子,說不好、笑不真、想不清、行不穩,這四“不”客觀地描寫了人工智能目前的現狀。

02 安全風險

1.國家安全

國家安全包括國土安全、政權安全、制度安全和意識形態安全等。2017年7月,美國智庫發表題為《人工智能與國家安全》的研究報告,認為人工智能將會是國家安全領域的顛覆性力量,其影響可與核、航空航天、信息和生物技術比肩,將深刻改變軍事、信息和經濟領域安全態勢。該報告強調人工智能通過變革軍事優勢、信息優勢和經濟優勢影響國家安全。其中,軍事領域引入人工智能幾乎是不可阻擋的,而人工智能技術與生俱來的軍民兩用特性則要求決策者必須調和商業與國家安全之間的利益。而且,利用“換臉”、“換聲”等人工智能技術可以製作具有欺騙性的假時事新聞。已有案例說明,利用人工智能技術在社交平臺大量製作散發虛假新聞可以在政府首腦選舉中影響選民的抉擇。

2.社會安全

傳統犯罪藉助人工智能,將會衍生出新型犯罪形態、犯罪行為、手段和方法,出現無法辨識是機器人犯罪還是真實人犯罪的尷尬場景。2018年3月,美國發生了兩起涉及自動駕駛的車禍。3月19日,優步(Uber)一輛自主駕駛汽車在美國亞利桑那州坦佩市發生致命車禍,一名49歲的女子晚上推著自行車穿過馬路時被汽車撞死。3月23日,一名工程師駕駛特斯拉Model X型號汽車在加州101公路和85公路交接處發生致命車禍,車禍發生時汽車啟用了自動駕駛(或自動輔助駕駛)功能。這些案例說明,人工智能產品如果沒有徹底解決安全可靠性問題,將會危及社會公共安全和人身安全。

3.網絡安全

網絡和大數據的發展推動了人工智能的進步,網絡攻擊智能化趨勢也給網絡安全保護提出更高要求。有關人工智能與網絡安全關係的研究表明,一旦人工智能運用到網絡攻擊活動,將使得網絡攻擊活動更加難以預警和防範,關鍵信息基礎設施也將會面臨新的安全風險威脅。如人工智能技術運用到木馬病毒製作傳播,將會出現難以防禦的超級病毒木馬,傳統應對方法將不足以制止這些惡意程序傳播擴散的速度。此外,人工智能的技術研發與應用也存在一些不確定性的安全風險。

03 應對人工智能安全風險的對策建議

人工智能的安全風險取決於技術發展及其安全可控的程度,短期風險可以預見,長期風險受制於現有認知能力難以預測和判斷。因此,一方面,人類社會要積極推動人工智能技術研發和應用;另一方面,要為人工智能的發展應用規劃一條安全邊界,防止其被惡意運用、濫用,給人類社會造成不可逆轉的傷害。

1.加強人工智能安全風險的研究

樹立正確的安全觀,科學對待人工智能安全風險。研究掌握在人工智能技術研發和應用過程中會出現哪些風險,並從法律、政策、技術和監管等方面進行有效防控管控。

2.加強人工智能立法研究和法律規範

人工智能理論、方法、技術及其應用引發社會關係、社會結構和行為方式的變化,產生不可預知的安全風險和新的法律問題。建議運用法律手段,重點防控人工智能行為主體及其行為的異化。從現有情況看,人工智能法律研究應主要聚焦在人工智能產品主體,如智能機器人的法律地位、行為的法律屬性以及法律責任如何確定等方面。在立法方面應加強對人工智能技術應用可能出現的法律問題的前瞻性研究探索。

3.加強人工智能安全防控體系建設

按照趨利避害原則,處理好人工智能發展應用與安全防控的關係,既要促進人工智能發展應用,又要推動其在安全、可靠和可控的軌道上前行。要加強對人工智能安全防控體系建設的戰略規劃部署,圍繞人工智能安全風險點,借鑑已有經驗,有步驟地推進人工智能安全綜合防控體系建設。

4.加強人工智能產品服務的安全監管

要及時制定人工智能安全產品和服務技術標準規範,規範和引導產品研發推廣。加強對人工智能安全產品和服務的市場監管執法和相關產品上市前的安全測試。對有安全缺陷的產品和服務要依法處理,對造成危害後果的要依法追究法律責任。要積極運用人工智能技術提高安全監管能力,善於運用人工智能技術改進和加強安全監管執法,提高安全監管執法的能力和效率。

5.加強人工智能技術研發的管控

人工智能的快速發展引起了國際社會對於道德倫理問題的關注和擔心,應當為人工智能技術研發劃出“紅線”,設置禁區,禁止研究開發危害人類生存安全的人工智能技術和產品,防止人工智能技術的濫用。美國科幻小說家阿西莫夫在1950年出版的小說《我,機器人》中提出了著名的“機器人三大法則”,第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險時袖手不管;第二定律:機器人必須服從人類發出的命令,當該命令與第一定律衝突時例外;第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存。2017年1月,美國著名人工智能研究機構未來生命研究院(FLI)在加利福尼亞州召開主題為“有益的人工智能(Beneficial AI)”的阿西洛馬會議,法律、倫理、哲學、經濟、機器人和人工智能等眾多學科和領域的專家,共同達成了23條人工智能原則(“阿西洛馬人工智能原則”,被稱為人工智能發展的“23條軍規”),呼籲全世界在發展人工智能的時候嚴格遵守這些原則,共同保障人類未來的利益和安全。23條規則規定,人工智能研究的目標應該建立有益的智能,而不是無向的智能。應該設計高度自主的人工智能系統,以確保其目標和行為在整個運行過程中與人類價值觀相一致。對於人工智能造成的風險,尤其是那些災難性的和存在價值性的風險,必須付出與其所造成的影響相稱的努力,以用於進行規劃和緩解風險。同時,人工智能軍事化問題也是國際法律界關注的熱點。目前,國際上限制致命性人工智能武器的呼聲不絕於耳,有上百家人工智能領先企業呼籲禁止發展致命性人工智能武器。國際社會應當共同努力,加強合作,反對人工智能軍事化,共同應對人工智能安全風險。


分享到:


相關文章: