歡迎公民AI!

如果一部人工智能操控的存貨機器人撞傷了倉庫工人,如果人工智能醫生出現了誤診,誰將對此負責?埃森哲認為,企業必須提高人工智能系統的責任意識!

企業不應只是訓練人工智能執行特定任務,而必須將其“培養”成為負責任的企業員工,為社會進步作出重要貢獻。這就是公民AI。

人工智能能力快速增長,在社會中的應用面也日漸寬泛。從美國第一個人工智能律師ROSS到中國地震臺網用機器寫出的第一篇新聞稿,人工智能已經從一個單純的技術工具發展成為人類的合作伙伴。在這樣的背景下,企業應如何看待人工智能技術,怎樣更好地為我所用?

人工智能:從程序化運營到自我學習

試想一下,一套機器學習系統希望在圖片中找到一隻狗,並分辨出品種。為此,大量帶有“標記”的圖片不可或缺:一組圖片教會系統識別狗的位置,其他圖片集則用於區分不同犬種。在監督學習模式下,圖像通過手動標記,不僅告知系統動物位置,同時也說明其種類。

隨著科技的發展,這種以程序方式構建的、僅可完成種類極為有限任務的人工智能系統已過於陳舊。並行處理技術和人工智能算法的發展,進一步刺激了深度神經網絡的爆發式增長,AI得以突破單一程序的侷限,擁有超越預期的行動能力。

人工智能系統獲取的數據越多,其預測效果就越精準。在上面提到的識別寵物及其品種的實例中,測試數據集可以包括一幅在複雜或紛亂背景中存在多隻寵物的圖像。一旦模型達到了所需精度,就可在生產環境中使用。

歡迎公民AI!

深度神經網絡人工智能系統可以不斷擴展和提高自身能力,可以自主學習,無需人為監督。卡內基梅隆大學的研究人員開發了一種訓練方法,使一架無人機能夠通過自我培訓,學會識別和追蹤某輛汽車。基於學習的人工智能擁有廣泛功能,隨著它們的知識累計和能力增長,就可能成為員工的協作拍檔和同事,無需擔心它們會“跳槽”。

培養AI員工,消除數據偏見

《埃森哲技術展望2018》顯示,81%的企業高管認為,不出三年時間,人工智能將作為一名同事、合作者和值得信賴的顧問,和企業員工並肩協作。事實上,人工智能已經在某些領域擁有了與使用者相同的影響力。

紐約西奈山伊坎醫學院的研究人員創建了一個名為“Deep Patient”的人工智能系統,通過分析70萬名患者檔案,成功自學瞭如何預測78種疾病的風險因素,輔助醫生診斷;舊金山Stitch Fix公司的服裝設計師用AI 為客戶提供服飾搭配建議;螞蟻金服的“定損寶”利用AI協助保險公司優化車險理賠;北歐軟件製造商疊拓甚至在其領導團隊中“聘請”了一名名為“AliciaT”的AI,希望“她”能幫助管理團隊利用數據作出明智選擇。

鑑於人工智能參與做出的決策會給人類生活帶來越來越多的影響,企業需要培養AI的責任意識,教會他們商業與社會規範。通過培養AI的責任感,企業可以創建具有不同技能的人工智能組合。在完成培訓後,這些技能模塊可以在企業內流通,按需使用。同時,AI還可以通過接受繼續教育,適應新的工作要求。通過對AI做出社會責任方面的培訓,企業有望創造出有能力、善合作的AI員工。

歡迎公民AI!

但,有一個前提——企業必須擁有準確的數據。弗吉尼亞大學的一項研究發現,人工智能會放大預料中的性別偏見,將站在爐灶旁的男性全部歸類為女人。

在擁有了AI員工後,通過創建培訓課程,消除數據偏見顯得尤為重要。企業的人工智能系統需要從基本原則開始,隨後逐步依照設定的分類機構建立技能。

谷歌近期發佈了一套開源數據集,幫助企業提升其人工智能系統的語音識別能力。為了創建一套數據集,使AI做好充分準備理解某種語言的30個單詞,谷歌錄製了數千人的發音,共計6.5 萬條音頻剪輯。正是憑藉如此龐大的培訓數據,谷歌的語音識別準確性達到了95%。

企業還必須確保,無論AI的溝通對象是客戶、員工、還是其他人工智能系統,雙方都擁有相同的認知背景。企業還必須為正在收集和分享的各項模型標明出處,由此確保可複製的模型和訓練數據之間的聯繫。如果能對數據錄入加以整理,儘量消除各種偏差,建立良好的歸檔、組織和正確標記,企業就能建立起強大的AI模型庫,反覆對其利用。

創建更易懂、負責任的人工智能

在企業和社會中,對決策結果作出說明至關重要。88%的受訪高管均表示,當企業利用人工智能進行決策時,確保員工和客戶理解其決策原則非常重要。企業必須構建和培訓其人工智能系統,以人們能夠理解的方式清楚詮釋其行為。

英偉達公司(NVIDIA)最近公開了Drive PX的學習模式。Drive PX是嵌入了人工智能的自動駕駛汽車平臺,能夠自主學習如何駕駛。英偉達的工程師開發出一種方法,突出顯示行車記錄視頻中AI聚焦觀察的區域,展現了AI所“看到、想到”的信息。另外,美國的第一資本銀行 (Capital One)正研究如何讓AI在拒絕客戶信用卡申請時,按照銀行法規要求做出合理說明。

政府決策者們也在考慮出臺規則,管理AI在決策中的作用。近期生效的歐盟《通用數據保護條例》的原則精神,賦予了個人對AI 和其他算法所做決定的“解釋要求權”。

與此同時,“公民AI”的另一內涵在於,企業必須提高人工智能的責任意識。無論其在社會中扮演何種角色,AI所採取的一切行動都代表著企業,使用這些技術的企業必須仔細考慮如何為其行為承擔責任和義務。

奧迪公司(Audi)宣佈,置入 A8 車型的“交通擁堵領航”自動駕駛系統於 2019 年投入使用後,將為其事故承擔責任。德國聯邦政府也針對一些不可避免的事故情形,預先制定了規則: 汽車必須選擇物質損害,而非人身。

歡迎公民AI!

隨著AI更加廣泛而緊密地融入社會中,它所帶來的直接影響和衝擊將會是全方面的——從財務決策、醫療保健,一直延伸到刑事司法,乃至更廣闊的領域。企業在培養人工智能方面的責任也將不斷增加。歐洲議會已開始考慮授予機器或機器人有限的“電子人格”,類似於判定責任或損害時所使用的“法人”概念。

如果企業不主動提高AI的“心智”成熟度,法規和公眾就會反過來對其提出要求,甚至整個人工智能行業都將因為AI的責任缺失受到嚴格監管控制。令人欣喜的是,《埃森哲技術展望2018》發現,72%的高管表示,所在企業正設法提高AI決策與行動的透明度,以此獲取客戶的信任和信心。這將是AI融入社會的關鍵一步。

來吧,歡迎我們的“公民AI”!

歡迎公民AI!

歡迎使用

“寫留言”功能

與埃森哲交流!


分享到:


相關文章: