繼核能後,人工智能和基因編輯兩個魔盒又開,人類在自取滅亡?

上個世紀初,愛因斯坦提出“相對論”,婦孺皆知的E=mc²,啟發了後來的“天才們”,製造出超級殺人武器,原子彈。廣島和長崎近40萬平民因此灰飛煙滅。後來,核戰爭的陰雲一直籠罩著20世紀的天空,屢屢險釀毀滅全人類的核戰爭。但核能的開發似乎也帶來了人類的福音,作為一種清潔能源,核電在解決人類“能源危機”中所扮演的角色越來越重要,目前全球投入使用的核電站已達400餘座。

繼核能後,人工智能和基因編輯兩個魔盒又開,人類在自取滅亡?

與核能類似,在本世紀初,人類正嘗試打開“人工智能”和“基因編輯”兩個潘多拉魔盒。伴隨著科技進步的噴湧動力,狂熱的科學家及其擁躉不斷開啟他們的上帝視角,但在血脈噴張之餘,更有很多有識之士在理性反思,人類現階段能否駕馭好這些狂飆的馬車,這兩個魔盒打開之後,裡面住的到底是福音天使,還是魔鬼惡棍?

繼核能後,人工智能和基因編輯兩個魔盒又開,人類在自取滅亡?

關於人工智能,現已成為科技圈的“桂冠”和“寵兒”。在人力和材料成本不斷高漲的今天,已成為資本巨搫競相追逐的救世良藥。作為一項前沿科技,更多科技大佬在暢想著擁抱人工智能的未來生活場景。一切看起來是如此美好,如此令人神往。不斷更新迭代的人工智能技術應用後,可以想見人們的衣食住行將更加輕鬆寫意,醫療和教育事業也會得到跨越式的進步,甚至可以通過人工智能掌握氣候變化,精準預測洪水,地震等被稱作“不可抗力”的自然災害。在這一藍圖下,“硅基生命”們嚴格臣服於“碳基生命”,將為全人類謀求最大福祉。

繼核能後,人工智能和基因編輯兩個魔盒又開,人類在自取滅亡?

可早在幾年前,埃隆馬斯克就發出了不同的聲音:“我們需要萬分警惕人工智能,它們比核武器更加危險!”人工智能廣泛應用後,“搶飯碗”也許只是微不足道的影響,比起可能帶來的貧富分化加劇及機器人武器的威脅,更令人擔憂的是未來生活在硅基生命的包圍下,人類的精神生活可能將不可避免滑向空洞化和虛無化。何況,並不能排除人工智能失控的可能性,甚至有人預測人工智能超越人類智慧的“奇點”時刻,終將到來。這些無不值得人們冷卻下來發熱的頭腦,在技術開發之初,做好前提設計。

繼核能後,人工智能和基因編輯兩個魔盒又開,人類在自取滅亡?

近期,一則國內某教授利用基因編輯技術,成功助力誕下免疫艾滋病嬰兒的新聞,引發各界海嘯般的強烈反響。學術界對此提出強烈反對和譴責,科技部隨後也做出回應:基因編輯嬰兒如果確認已出生,屬於被明令禁止的,將按照中國有關法律和條例進行處理。基因編輯技術應用於人類胚胎一直以來屬於”禁區“和”紅線“,一者尚無法保證100%安全,可能引發基因突變,對新生兒產生不可估量的傷害;二者,此未知風險可能遺傳給後代,甚至通過擴散效應,汙染全人類的基因庫。此外,這還可能造成人類倫理方面災難性的風險,霍金預言的”超級人類“,言猶在耳。

繼核能後,人工智能和基因編輯兩個魔盒又開,人類在自取滅亡?

但就基因編輯技術本身而言,可以說人們對其一直寄予厚望。該技術應用於植物性狀改良,可以改善人們食品的健康和營養水平;甚至有可能應用於復活滅絕物種,從而幫助生物學家的研究。更有價值的是,利用基因編輯技術,有望治癒各類惡性疾病,給人類的醫療和健康,帶來顛覆性的福音。這些有利因素,因”基因編輯嬰兒“的出現,不免蒙上一層濃重的陰影。

繼核能後,人工智能和基因編輯兩個魔盒又開,人類在自取滅亡?

無論如何,人工智能和基因編輯兩個魔盒,已被悄然打開。對此,我們無法預料事情的終局,但值得現在去做的是,必須集全人類的智慧去理清科學的邊界,儘可能堵住技術被濫用造成災難性後果的風險。我們希望科技進步給人類帶來希望曙光同時,儘可能避免墮入那個噩夢般的至暗時刻。


分享到:


相關文章: