顧建國:人工智能安全研究與對策

顧建國:人工智能安全研究與對策

2019年5月17日,原公安部網絡安全保衛局局長、中國公共安全防範產品行業協會副理事長顧建國應《網安大講堂》的邀請,面向河南省公安戰線、省直機關、企業單位等300餘位負責網絡安全的領導和專業技術人員,展開《人工智能安全淺談》的培訓。

本次授課主題:人工智能安全淺談

01.人工智能的安全問題

隨著步入數字、網絡化、智能化的新時代,人工智能已成為新一輪產業革命的強大動力和顯著標志,將給我們的社會生產和生活方式帶來重大變革和影響,伴隨著人工智能的發展和大量應用,所帶來的安全問題也應引起關注和重視。2018年8月14日,委內瑞拉總統馬杜羅在集會活動中收到無人機炸彈襲擊;2018年3月,優步(Uber)自動駕駛汽車因機器視覺系統未能及時識別路上突然出現的行人,導致汽車與行人相撞致人死亡……

人工智能目前面臨的三大安全問題,包括人工智能自身、產品及應用安全。人工智能技術框架相對有限,目前主要的人工智能應用開發平臺有谷歌的FensorFlow,臉譜的Pythoch,亞馬遜的MxNet等,多為少數互聯網巨頭所壟斷,核心技術不能自主掌控。同時,針對人工智能的模型/算法的各種攻擊手段,也不斷翻新,例如白盒攻擊、黑盒攻擊、模型竊取等。同時人工智能也面臨傳統的網絡安全問題,系統安全的脆弱性,數據後門攻擊、藥餌攻擊等對人工智能安全直接構成安全威脅。

顧建國:人工智能安全研究與對策

02.國外AI安全動態

美國、歐盟等西方國家在大力發展人工智能的同時,相繼制定原則規範,研究人工智能帶來的風險和安全問題。2017年1月,美國未來生命研究院(FLI)在阿西洛馬召開“有益的人工智能會議”,會議從研究問題、倫理價值觀和長期問題等三個方面,共同達成了23條人工智能原則。2017年9月,聯合國教科文組織和世界科學知識與技術倫理委員會聯合發佈《機器人倫理報告》,提出要重視數據和隱私保護,機器人與製造者之間的責任分擔機制,建立預警機制。2017年,歐洲會議通過了要制定“機器人憲章”的立法決議;2018年,歐洲科學與新技術倫理組織發佈《關於人工智能、機器人及“自主”系統的聲明》,提出一套基於歐盟條約和基本權利憲章規定的價值觀和九條基本倫理原則。此外,美國、英國德國、日本和韓國等多個國家相關組織都在研究探討人工智能安全問題與對策。

03.AI安全問題的對策思考

2017年7月,我國國務院印發第一個專門的國家級人工智能戰略文件《新一代人工智能發展規劃》。《規劃》提出要“加強人工智能相關法律、倫理和社會問題的研究,建立保障人工智能健康發展的法律法規和倫理道德框架”,包括制定相關安全管理法律,為新技術的快速應用奠定法律基礎;民事與刑事責任確認; 建立追溯和問責制度;加強對人工智能潛在危害與收益的評估等。這是對我國人工智能和發展安全提出的總體框架要求。在《規劃》的指導下,相關部門針對無人機、自動駕駛、智慧金融等出臺了相應的規範文件,在防範風險、保障安全方面提出了具體措施要求。

人工智能安全需遵循“六個必須”:

一、是必須統籌發展與安全。

二、是必須體現和落實總體國家安全觀。

三、是必須重視人工智能自身安全。

四、是必須加強人工智能法律法規和倫理道德建設。

五、是必須加強人工智能安全標準體系建設。

六、是必須加強人工智能的安全監管。

人工智能安全與網絡安全有著共同特點,但前者更具有廣泛性、滲透性、衝擊性和複雜性的特點,我們既要從整體上研究把握,也要注重人工智能安全的突出問題,以科學的態度,歷史的責任迎接人工智能時代的到來。

顧建國:人工智能安全研究與對策


分享到:


相關文章: