警惕新聞生產中的算法風險——對話山東大學副教授張超

編者按:近年來人工智能技術迅猛發展,新聞業正經歷一場變革。機器人量產新聞,記者是否會消失?算法驅動新聞生產創新,是否只有機遇?算法風險你是否意識到,我們又該如何應對?記者與山東大學新聞學副教授張超對話,探討人工智能技術帶給新聞生產的影響與風險。

訪談嘉賓:

張超,山東大學文化傳播學院新聞學副教授,碩士研究生導師。博士畢業於中國人民大學新聞學院。以第一作者獲山東省第三十二屆社會科學優秀成果獎二等獎、山東省第三十一屆社會科學優秀成果獎二等獎、2017年山東高校人文社會科學優秀成果獎一等獎。近五年以第一作者發表CSSCI論文15篇。近年來在大數據、數據新聞、人工智能等領域發表一系列有影響力的學術成果,論文被《新華文摘》、人大複印報刊資料《新聞與傳播》轉載,被《新華文摘》和《中國社會科學文摘》論點摘編。

記者:人工智能技術的發展如火如荼,技術驅動下的新聞業也在這波人工智能大潮中經歷轉型,你如何評價人工智能技術對新聞業的影響?

張超:我認為人工智能技術對新聞業的影響可以用“深刻”“顛覆”之類的詞來形容。人工智能技術的核心是算法。我曾在一篇論文中將人工智能技術對新聞業的影響稱之為“算法轉向”。這一“轉向”是滲透在新聞生產的各個環節,從選題、內容生產,再到推送,無不有算法的身影。這次的“算法轉向”不僅與技術有關,更是一種新聞生產方法論和思維方式的大變革。

記者:你能具體談一下人工智能技術對新聞生產各個環節帶來的“轉向”嗎?

張超:比如在選題階段,新聞價值評價由經驗判斷轉向實證測量;在內容生產中,新聞內容生產模式由“手工作坊”轉向人機協同;在新聞敘事上,由線性敘事轉向交互敘事;在內容分發上,由大眾化覆蓋轉向個體化定製;在表徵現實的機制上,由記者中介轉向算法中介。

記者:你剛才提到了新聞內容生產模式是人機協同,我是不是可以理解成你不認為記者會被人工智能技術“完全”替代?

張超:你的理解是對的。現在各行各業都有一種聲音,就是一些崗位、工種會被人工智能取代。在一些人看來,人工智能技術似乎是“洪水猛獸”,搶了人類的飯碗。其實,只要技術在發展,一些技能就會被新技術替代。機器人新聞之所以能批量產出大量文本,是因為有算法、有模板,而非有像人類一樣的創造性思維。所以機器人的寫作領域一般是財經新聞、體育新聞。深度報道對於算法而言遙不可及。因此算法只能是“有選擇”地替代記者的某些技能。

在我看來,機器人對記者而言是一種“解放”,一些常規的消息由機器人來寫,記者可以騰出時間做更有創造力的事情,減少了簡單、重複的勞動。因此,算法與記者的關係並非“替代”關係,而是“耦合”關係。未來人機協同將是新聞生產的主要模式。

記者:人工智能技術給新聞生產帶來許多可能性,從目前業界和學界的聲音看,憧憬大於憂慮。在國內人工智能相關研究領域,你是為數不多的對人工智能技術持批判態度的學者,你的擔心是什麼?

張超:對技術既要有敬畏心,也要有提防心。我們人類正處於貝克所描述的“風險社會”之中,技術的發展讓各種風險形態不斷“生產”出來。人工智能技術也是如此。很多人認為人工智能無所不能,這實際上是一種“技術崇拜”,甚至是“技術盲從”。現在我們的人工智能技術還處於弱人工智能階段,由於人們對算法的過度依賴和算法本身的侷限所導致的“算法風險”將隨著人工智能技術的滲透與日俱增,這不得不引起我們的重視。

記者:具體來說新聞業會面臨哪些算法風險呢?

張超:我將新聞生產中的算法風險分為五類風險:失實風險、決策風險、偏見風險、隱私風險和聲譽風險。

失實風險是算法得出的錯誤結論導致內容失實、信息錯誤,影響整個新聞報道的準確性和真實性。失實風險主要由算法設計本身的侷限性和輸入數據的錯誤導致的。

決策風險是指由於人們過於相信算法,對某些決定進行思考、判斷時出現錯誤。比如一些數據新聞採用“計算器”的方式幫助用戶進行決策,但沒有人關心這種計算器是如何計算的,算法有問題,人們的決策也錯了。

偏見風險的產生由於算法運行系統中的偏見因素導致偏見的結果輸出。

隱私風險是由於數據收集者對個人隱私數據的過度搜集或缺少保護,引發的個人隱私受到侵害的風險。

聲譽風險是針對媒體而言的,算法出錯所產生的後果影響面大、速度快,這必然對媒體公信力構成威脅,需要媒體在應用算法時保持警惕。

記者:你認為我們該如何應對算法風險?

張超:應對算法風險不是一兩句話能說透、說全的,它是一個系統工程,我認為可以從四個方面著手:在自律層面,新聞業要構築算法責任倫理;在他律層面,立法部門要制定監管新聞算法的法律法規;在社會層面,利益相關者,尤其是記者、編輯和公眾要提升算法素養;在媒體層面,新聞機構要建立預防和處理算法風險的應對機制。

記者:我的直觀感受是當前業界和學界好像對“算法風險”問題關注得不夠?

張超:這方面的研究未來應該加強。算法風險研究是一個極具前瞻性的領域,它更像是一種“預警”研究,時刻提醒著新聞業者算法是不可以完全依賴的。我希望未來有更多的人關注算法風險、技術風險。不瞭解風險本身就是一種風險。

人工智能技術改變著新聞業,但不會改變新聞的生命:真實性。算法風險不單因為它是風險而被警惕,更因為它會蠶食新聞的生命力和公信力。作為公眾,大家都身處算法的影響之中,批判算法、警惕算法風險,也是公眾應有的態度。

記者:是的,我們期待未來學界能有更多聲音回應新聞生產的算法風險問題,在防範和規避風險方面提供更多真知灼見。

(大眾網·海報新聞記者 孫翔)


分享到:


相關文章: