美國發布AI白皮書《機器崛起:人工智慧及對美國政策不斷增長的影響》

美国发布AI白皮书《机器崛起:人工智能及对美国政策不断增长的影响》

2018年9月,美國眾議院監督和政府改革小組委員會(House Oversight and Government Reform Subcommittee)信息技術組主席Will Hurd和首席成員Robin Kelly簽發了題為《Rise of the Machines—Artificial Intelligence and its Growing Impact on U.S. Policy》(機器崛起:人工智能及對美國政策不斷增長的影響)的AI白皮書。

文中小組委員會總結了關於人工智能監督和聽證會的經驗教訓,並提出了前瞻性的建議。小組委員會分析了在AI應用方面面臨的挑戰,文中主要關注失業、隱私、偏見和惡意使用4個問題領域並提出了針對性建議。

現由學術plus編譯全文,僅供參考。

美国发布AI白皮书《机器崛起:人工智能及对美国政策不断增长的影响》

文章版權歸原作者所有,觀點不代表本機構立場。

機器崛起:人工智能及對美國政策不斷增長的影響

來源:https://oversight.house.gov

一、AI所面臨的挑戰

眾議院監督和政府改革小組委員會的聽證會得出結論,AI面臨不同種類的挑戰。本文主要解決聽證會提出的以下問題。

美国发布AI白皮书《机器崛起:人工智能及对美国政策不断增长的影响》

1、勞動力(失業問題)

一個重要問題就是AI驅動的自動化可能會導致失業。2017年12月,麥肯錫的報告稱由於AI驅動的自動化,美國和德國大約有1/3的勞動力可能需要找新的工作。2013年牛津大學一份研究稱AI技術對美國勞動力的影響可能更高,大約有47%的美國人面臨失業的風險。除此之外,AI還有可能帶來財富不平等的問題。

但聽證會和其他研究表明,AI也有改善和增加工作機會的空間。比如,經濟合作與發展組織(Organisation for Economic Co-operation and Development,OECD)2018年3月的一份報告就稱OECD成員國有14%的工作面臨自動化的風險。

所有這些研究的共同點是在指定經濟政策時必須考慮到美國人在採納人工智能技術的同時所面臨的不確定的工作前景,以及需要增加對教育和工人再培訓方面的投資。因此,應鼓勵聯邦、州和地方政府與教育工作者、僱主、僱員、工會和其他利益相關者合作,制定有效的戰略以改善美國工人的教育、培訓和再培訓,使其在人工智能驅動的經濟中更具競爭力。聯邦政府也應該以身作則,在教育和培訓方面投入更多,使其現有和未來的勞動力獲得必要的人工智能技能。

2、隱私

AI技術依賴於算法,而算法需要大量的數據來決定如何響應這些新的輸入。因為AI技術需要大量的數據,因此聽證會中多次將個人隱私視為潛在挑戰。例如,人工智能專家Ben Buchanan博士就消費者數據用在人工智能系統中所面臨的各種隱私風險進行了證明。這些數據有被黑客竊取的風險,也有可能被收集或有權限訪問的人濫用以及二次使用的風險。

2017年美國最大的徵信機構Equifax數據洩露事件就應證了研究人員的擔憂。黑客成功入侵了系統後,獲取了大約1.45億美國公民個人數據的訪問權限。這些數據包括Equifax收集的用戶敏感信息,有社會安全碼、生日、地址、駕駛證號等。

涉及隱私問題的另一個例子是智能音箱(即使用基於語音的數字助理)。智能音箱為了能夠響應用戶的命令,需要隨時監聽,那麼非命令期間聽取的數據怎麼辦呢?執法部門已經開始要求科技公司為刑事案件錄音。但這也提出了一個新的問題,即如何使一直處於監聽狀態的設備做到收集消費者的證據呢?

為了解決人工智能驅動的技術帶來的各種隱私挑戰,Buchanan博士稱企業需要在人工智能系統的設計和開發中採取更嚴格的保障措施。但消費者技術協會主席Gary Shapiro認為針對不同的AI應用應該有不同的管理方式,而不能將所有的AI應用放在同一個AI隱私管理規範之下。一些人工智能產品和應用程序可能已經受到了聯邦隱私法或聯邦貿易委員會的約束,例如健康保險流通與責任法案(Health Insurance Portability and Accountability Act)、兒童在線隱私保護法案(Children’s Online Privacy Protection Act)、Gramm-Leach-Bliley法案。

隨著人工智能系統和應用程序越來越多地收集和使用個人數據,更加引起人們對隱私問題的擔憂。因此,聯邦機構應審查聯邦隱私法律、法規和司法判決,以確定它們如何已經適用於其管轄範圍內的AI產品,並在必要時更新現有法規(加入AI的管理內容)。

3、偏見

人們越來越依賴AI技術來做出關於個人的決策,這也加劇了人們對這項技術準確性的擔憂,特別是在政府使用該技術時。電子隱私信息中心(EPIC)在向小組委員會發表的一份聲明中解釋道:“當政府使用AI來制定關於人們的決策時,增加了關於問責制、正當程序和公平性的基本問題。”

AI非常依賴數據。如果數據本身是不完整的、存在偏見或存在其他形式的偏差, AI系統就可能存在不準確的風險。由於AI系統依賴於越來越大量的數據,包含偏見(差)的數據集可能會增加風險。如果AI系統是通過有偏見數據訓練的,那麼AI系統產生的結果應該是有偏見的。

比如,2016年ProPublica調查了一些法院使用“風險預測工具”用於刑事判決和保釋聽證會的情況。調查結果顯示算法和系統是有偏見和不準確的。非洲裔美國人被標記為高風險的人數是白人的兩倍,但這些被標記為高風險的非洲裔美國人之後並沒有再犯罪。隨著AI技術應用於金融、法律、醫療等行業,這些偏見可能會被AI技術放大,最後給人們帶來傷害。

聽證會上,其他利益相關方也明確指出,解決AI系統中的偏見或潛在偏見的最有效方法之一就是提高這些系統使用的透明度:

AI系統應該是可檢查的。算法用於構建模型的數據應該是適宜的。算法做出的決策應當是可檢查的。換句話說,當我們使用這些算法時,應該要能夠解釋每個算法的輸出。

解決AI中的偏見的解決方案也是跨領域的。例如,埃森哲最近推出了一種“AI fairness tool(人工智能公平工具)”,該工具使用AI來檢查數據如何影響模型中的變量,如年齡、性別和種族等。人工智能相關的非政府研究機構也在研究AI偏見和人工智能。簡而言之,解決AI系統中的偏見和潛在偏差將需要在這些系統做出有關個人的相應決策時提高透明度。

聯邦、州和地方機構在使用AI系統做出相應決策時應確保支持這些系統的算法是可審計和可檢查的。此外,鼓勵聯邦、州和地方政府更積極地與學術機構、非營利組織和私營企業合作,討論如何識別人工智能系統中的偏見,以及如何通過技術更好地消除偏見和如何解釋偏見。

4、AI的惡意使用

聽證會還強調了預防AI的惡意使用的必要性。OpenAI 2018年初發布的一份報告稱,除非制定足夠的防禦措施,否則人工智能的進展將導致網絡攻擊“更有效、更有針對性、更難以追溯、AI系統中的漏洞也更可能利用”。該報告的結果與網絡安全公司Cylance 2017年的調查結果一致。Cylance的調查顯示, 62%的信息安全專家認為,人工智能將於明年被用於網絡攻擊中。

AI的計算能力使其能夠以指數級增加網絡攻擊的嚴重性。AI惡意使用特別值得特別關注的三個方面是:政治安全、物理安全和數字安全。這三個領域之間的共同主題是AI擴大了風險等級。比如,網絡攻擊可以在一瞬間影響更多的設備、人和企業,從而破壞數字安全。事實上,美國已開始使用AI應對網絡攻擊。

比如過去幾年俄羅斯發起的虛假信息宣傳活動。有了AI技術的推動,含有“deepfake”技術偽造的視頻的“假新聞”可能會更容易讓人相信。通過數據AI可以精確地識別那些最易受到虛假信息影響的人。這種能力可能會極大擴大敵對民族國家破壞另一個國家政治體系的虛假宣傳活動中受影響的人數。

AI系統也可能危及物理安全。例如,來自美國大學的一組研究人員展示了黑客如何通過一些簡單的貼紙使自動駕駛車輛錯誤識別路標,而這些貼紙本是無害的。

在考慮未來如何積極利用AI時,政府還必須考慮該技術被用於傷害個人和社會的情況,併為如何減輕這些危害做好準備。

二、政府如何回應AI?

一般來說,美國政府對新興技術採取不干涉方式。比如,在20世紀90年代,政府對互聯網的首選政策是支持私人行動而不是採取公共監管。在此期間,雖然國會和州立法機構通過了若干關於商業、內容和競爭的法律,但都側重於為新興網絡制定合理的上層建築,而不是對其發展進行微觀管理。克林頓政府採取了“有益忽視(salutary neglect)”的政策,克林頓總統命令政府“不做任何破壞新興技術提升普通美國人生活的能力的事情”。

小組委員會的建議是聯邦政府對任何潛在的人工智能進行監管應該考慮上述歷史。政府應該首先評估對公共安全或消費者帶來的風險是否適用於現有的監管框架,如果是,應考慮現有框架是否能夠充分應對帶來的風險。如果這些風險超出現有的監管框架,則應謹慎考慮是否需要修改或增加以更好地應對人工智能帶來的風險。

在廣泛認可的衡量AI產品和應用安全和網絡信息安全的標準應該優先於新的監管措施。一個共同的分類方法也有助於提高清晰度,並能夠準確計算人工智能的技能和用途。美國國家標準與技術研究院(NIST)是制定標準的關鍵角色,IEEE(電氣和電子工程師協會)關於自主和智能系統倫理的全球倡議也起著重要的作用。人工智能指數(AI Index)是斯坦福大學“人工智能百年研究”的一部分,收集了有關人工智能的數據以衡量其進展,這對於提供歷史背景的標準制定至關重要。聯邦政府應該與公共機構、學術和私營企業一起協作制定出衡量人工智能產品和應用安全性的標準。

在沒有監管的情況下,聯邦政府也有切實可行的方式促進人工智能的創新。比如,政府擁有數千種不同的數據集,這些數據集對研究人工智能的研究人員和執行任務的機構來說非常有用。這些數據集中許多都是公共產品,應該向公眾開放。

因此,參議院應努力通過眾議院去年通過的“開放政府數據法案(OGDA)”。OGDA允許所有非敏感政府數據免費向公眾開放。聽證會上,研究人員稱通過更加開放的數據政策,可用加強AI的發展。如果參議院通過了OGDA,總統應儘快簽署成為法律,而主管機關應儘快實施。

聽證會上普遍支持的另一項建議是為研發提供更多的經濟支持。大學和非營利機構進行的研究以及企業的研發工作是美國成為人工智能領導者的主要原因。為了保持美國在AI領域的領導地位,需要增加國家科學基金會、國立衛生研究院、國防高級研究項目機構、情報高級研究項目機構、國家標準與技術研究所、國土安全部、國家航空航天局等機構的研發資金。因此,建議聯邦政府規定穩步增加聯邦在AI研發領域的支出。增加資助的另一個好處是能夠招募和支持更多的研究生,這些研究生將構成未來AI領域的主要人才。

(全文完)

  • 《中國電子科學研究院學報》歡迎各位專家、學者賜稿!投稿鏈接

    http://kjpl.cbpt.cnki.net

  • 學報電話:010-68893411

  • 學報郵箱:[email protected]


分享到:


相關文章: