「學術」算法霸權與公益訴訟

算法霸權與公益訴訟

第五屆世界互聯網大會正在浙江烏鎮召開,我也在關注並思考一些互聯網的問題。

前一陣子,都在批評滴滴的管理問題以及經營策略問題,很多也很有針對性。但是面對日益崛起的互聯網公司,聯想到幾年前百度的“貼吧門”,以及最近報道的“復大醫院”競價排名問題。我們是不是可以從一個更廣泛的意義,更宏大的視角來看待這個問題。

這是一個算法統治世界的時代。

那麼算法是否涉及公共利益,算法霸權是否侵犯公共利益,也是我們應該認真思考的問題。這是不是也可以作為互聯網大會的編外議題討論討論?

算法是互聯網公司的運營核心規則,其實,由於日益的互聯網化,很多傳統的公司也在算法化。

那麼算法到底是什麼?

算法不僅是一串代碼,不僅是網絡程序或者編程語言,這些都是它的表象。

算法的實質是邏輯,以此形成人們基於使用必須遵守的規則。

這些規則就像法律,只是法律還需要司法機關的維護來確認辯解。

算法是數學化,是高度確定性也是高度剛性的規則,如果違反了就無法操作下一步,甚至可以通過限制資格、降低積分等方式進行懲罰,同樣也可以相反的方式予以鼓勵。

算法就是互聯網社會的法律。

每一個APP除了服務之外,都代表了一系列運營的規則。

你也可以叫它操作流程、使用方式,不管怎樣,它的效力是不可撼動的。而對各種網絡平臺是不由自主的,因此算法規則也是不可逃避的。

但是算法又與法律很不同,最大的不同就是它沒有基於民主基礎之上產生機制,因此它反映的不是所謂公民的整體意志。它反映的只是一個公司的商業意圖。由於互聯網公司普遍的免費策略,似乎算法帶有很強的公共產品屬性,比如微信就比原來的短信便宜很多,功能也更強大。它並不意味著它是一種公益產品,它考慮的更多的是規模策略,規模是盈利的基礎,盈利模式更加隱蔽、更加多樣化。

這種方式其實戳破了互聯網公司公益性的外衣。

不存在免費的午餐,只是錢由誰出的問題。

但是,不管錢由誰出,這個午餐都不能讓人吃壞肚子,更不能要人命。

這就是互聯網公司的底線,即不能違反公共利益。

算法可以具有商業目的,但不能侵犯公共利益。

這種侵犯性與個人對公共利益的侵犯很不同,往往不是簡單直接的。

<strong>它首先就具有高度隱蔽性,非常難以察覺。

➤比如“復大醫院”問題,它利用了人們的誤解,並不是直接給出錯誤,而是進行錯誤的關聯。

➤再比如滴滴順風車乘客與司機的匹配算法等等,他利用人們的疏忽和潛意識中的衝動。

<strong>其次,它具有強大的系統性。

➤算法不是一兩條,它是一個規則體系,具有嚴密性和組織性。競價排名可不是一兩次單一的案例,它是核心盈利策略,是千百萬次的商業操作。

➤滴滴對出租車、專車和順風車也採取了差異很大的運營策略,背後的算法千差萬別。

<strong>再次,是對公共利益的損害。

➤這種損害是潛在的,但又非常明確。競價排名利用公共服務的外觀和長期積累的信任,造成信息誤導,從而產生基於誤導引發的各種損害結果。

➤滴滴通過放鬆監管放任了危險車主的運營,通過算法可以讓危險車主更容易找到侵害目標,官僚化的反饋機制又延宕了危機處理的解決。總之,對於一個安全性要求非常高的產品,通過忽視安全措施的設置,無形地增加了乘客的風險。這些風險最終演變成了一件件血淋淋的案件。

<strong>最後,對公共利益的違反存在企業責任。這些互聯網公司的責任有時與社會責任看似不宜區分。

➤比如搜索問題,“我是免費提供,憑什麼要求搜索結果百分之百正確,您要是信不著我可以找其他搜索引擎啊?”剛才說過了,免費並不等於一份有毒的午餐。免費不是免責的理由。我們可以允許數據的有限性,數據的不精確性,但我們不能允許蓄意的欺騙,即使是通過隱瞞真相的方式,或者錯誤關聯的方式。

➤這不僅是一個商業倫理問題,這也違反了基於信任產生的商業聯繫。這種蓄意的隱瞞或者關聯,是社會難以察覺的,更不要說監管,因此社會無法代替企業履行數據真實性的責任。滴滴更加明確的收費方式,就更是產生難以推卸的安全責任。出行產品,除了更快更有效率之外,難道安全到達不是更加基本的要求麼?記得幾十年前,鐵路就在反覆強調,安全生產多少天,公交車司機也被反覆關注安全屬性,這種公共產品的安全意義已經深深烙在這些傳統運輸行業的意識之中。雖然滴滴提供的更多的是一對一的出行服務,但基於海量的用戶,一定也不會比公共交通部門承載的客源少。但安全還沒有刻印在滴滴人的腦海中,也不見有什麼安全生產多少天的口號。雖然極端的個案都是在車主與乘客之間發生的,滴滴並沒有直接介入,但是滴滴通過算法匹配的傾向性和篩選的忽視性,實際上是在放大乘客的風險,出事只是一個概率性的問題。在這個問題上,在這些個案的處理上,社會的介入隔著滴滴的算法和運營,事實上是很難及時介入的。其實,滴滴算法與外部規則融合緊密性程度也是這些案件被詬病最多的。

真正的法律難以介入到算法調整的範圍。這是我們最需要關注的問題。

算法不能成為獨立網絡,算法本身也要遵守法律。

但是誰來檢驗算法的合法性,而且由於公司商業秘密的存在,怎麼能夠及時全面地進行事前預防,可能還需要比較長時間的研究。

但是筆者認為,目前可以通過公益訴訟的方式對算法進行事後的系統監督。

優先算法關涉公共利益,涉及不特定的多數人。而且個人的力量微弱,除了提出個人利益損害的民事訴訟以外,很難就算法問題提出系統性訴訟請求。而算法性問題不解決,頭痛醫頭腳痛醫腳是沒有太多實際意義的。這也是為什麼這些互聯網公司會一錯再錯的原因。

雖然這些公司也會承諾進行系統整改,但是自己確實很難當好自己的醫生,即使一兩個企業痛改前非,也不能保證所有企業都會系統反思,必須引入外部監督機制。

行政管理部門雖然也是一種外部監督機制,但是由於多頭管理,利益盤根錯節,很難有一個根本上的改善,對此,算法問題和霧霾問題具有一致性。

具體來說,可以考慮對民事訴訟法“人民檢察院在履行職責中發現破壞生態環境和資源保護、食品藥品安全領域侵害眾多消費者合法權益等損害社會公共利益的行為…”這個“等”進行擴張性機制,除了食品藥品安全等領域外,其他與其相當的民生領域,存在廣泛的侵害消費者合法權益的問題,也可以納入公益訴訟的範圍。

通過進入檢察機關的公益訴訟才有可能引入強有力的外部規範機制,才能使法律的意志在算法中得到執行,避免算法成為獨立王國,法外之法。

確保法律的統一實施本身也是法律監督機關的職責所在。

在算法日益強大的未來,如果不及早考慮這些問題,法律就會存在被算法架空的風險。


分享到:


相關文章: