04.01 斯坦福大學設立人工智能研究院引發人工智能倫理討論

3月18日,美國斯坦福大學宣佈成立“以人為本”人工智能研究院(簡稱HAI),由斯坦福大學人工智能科學家李飛飛和哲學教授約翰·埃切曼迪聯合擔任院長,致力於推動人工智能領域的跨學科合作,讓科技以人為中心,並加強對人工智能社會影響的研究。


斯坦福大學設立人工智能研究院引發人工智能倫理討論

(圖片源於網絡)


斯坦福大學校長馬克·泰西耶-拉維涅在研究院揭幕論壇上致辭說,人工智能在改善人類生活方面展示了巨大潛力,但同時也帶來很多潛在風險,HAI的成立旨在減少人工智能的危害,更好地利用人工智能提升人類生活質量。

“把倫理研究納入到人工智能研究和開發的基礎中去是當務之急。”李飛飛在開幕儀式上說。

這不禁讓阿童木創想家想起了今年兩會上,李彥宏提交的關於人工倫理的提案。在提案中,李彥宏認為AI應該做的是讓它去幫助人和服務人,不應該做的是讓它去傷害人和控制人。


斯坦福大學設立人工智能研究院引發人工智能倫理討論

(李彥宏就人工智能倫理在兩會上發言)


人工智能會帶來哪些倫理挑戰

從人文視角來看,人工智能帶來了一些有可能撼動社會基礎的根本性問題

隨著人工智能的不斷髮展,我們對於人的理解越來越物化和去意義化,人和機器的邊界越來越模糊,我們需要思考這種邊界模糊的後果。我們該如何對待機器和自身的關係?人和機器應該整合嗎?如果人對快樂和痛苦的感受可以通過其他物理和化學手段來滿足,那麼,人還有參與社會互動的需要和動力嗎?

人工智能還帶來了新的社會權力結構問題。

藉助人工智能,企業可以賦予每個用戶大量的數據標籤,並基於這些標籤瞭解人的偏好和行為,甚至超過用戶對自己的瞭解,這是巨大的權利不對稱。

此外,人工智能可能會造成偏見強化。

在社交媒體中,人工智能將觀點相近的人相互推薦,新聞推送也常常存在路徑依賴。當人們的信息來源越來越依賴於智能機器,偏見會在這種同化和路徑依賴中被強化。

人工智能還使社會的信息和知識加工處理能力被極大放大,信息和知識的冗餘反而使人陷入選擇困境。

如果人參與社會互動的次數和範圍縮小,而人工智能越來越多介入到知識的生產中,知識與人的需求之間的關係將變得越來越間接,甚至會反過來支配人的需求。

人工智能還會使未來社會出現“無用階級”

儘管人工智能也會推動進一步的專業化分工和創造新的工作機會,但並非所有人都有能力邁過技術性和社會性壁壘。尤瓦爾·赫拉利在《未來簡史》中警告,未來社會可能會出現“無用階級”,這種擔心並非全無道理。

人工智能也對傳統的法律法規和社會規範提出了挑戰。

譬如,無人駕駛汽車一旦出現事故,我們究竟該歸因於開發產品的企業、產品擁有者還是人工智能產品本身?

人工智能發展將進一步釋放社會活力,中國應積極擁抱人工智能,充分利用好它對生產力的解放效應。但是,把握機遇的前提是瞭解並預防風險,這需要我們在倫理學和社會治理上下功夫。為此,阿童木創想家認為由政府主管部門牽頭,組織跨學科領域的行業學家、人工智能企業代表、行業用戶和公眾等相關方,開展人工智能倫理研究和頂層設計,迫在眉睫。

更多相關信息,請關注阿童木創想家官方公號。阿童木專注於3-18歲孩子的STEM教育,關注兒童和青少年的軟實力及綜合素養提升。阿童木創想家目前開設有五大跨學科課程體系——機器人、編程、創客、競賽、特色(3D打印機、無人機......)課程,提供品牌合作,希望自己的教學理念得到傳播,惠及到更多的孩子,致力於培養面向未來的人才。


分享到:


相關文章: