用戶登錄投稿

中國作家協(xié)會主管

AI時代,誰決定故事該怎么講?
來源:文匯報 | 湯綺云  2024年10月09日08:57

1950年圖靈定義了“圖靈測試”以衡量機器是否具有智能,60多年后,第一個通過圖靈測試的軟件“尤金·古斯特曼”誕生。自那之后,人工智能就邁入了高速通道,短短幾年已經滲透進了我們生活的各個方面。

智能家居、“猜你喜歡”推送、智能安防監(jiān)控等技術讓我們的生活越來越安全便捷。但與此同時,自動駕駛汽車、AI繪畫、自動化生產線……人工智能也對許多人賴以謀生的崗位產生了巨大威脅。不論是好是壞,人工智能時代已經勢不可擋。人工智能注定會帶來一場盛大的信息革命,但要真正理解這場革命,就必須與過去的信息革命做比較。

未來尚在一片迷霧之中,或許我們能從歷史中尋求指引。著有《人類簡史》三部曲等現(xiàn)象級暢銷書的歷史學家、哲學家尤瓦爾·赫拉利,推出新作《智人之上》,從歷史的視角縱觀人類的信息網(wǎng)絡在過去幾千年如何發(fā)展,而人工智能又給信息網(wǎng)絡帶來了什么新變化,從中找出人類在人工智能時代的前行之路。

人類信息網(wǎng)絡中的困境與選擇

在《智人之上》中,尤瓦爾·赫拉利延續(xù)了他在前作《人類簡史》《未來簡史》中的重要觀點:我們智人能夠統(tǒng)治世界,并不是因為我們有多聰明,而是因為唯有人類能夠進行靈活的大規(guī)模的合作。而人類的合作,是靠信息實現(xiàn)的,人類的歷史是信息網(wǎng)絡的歷史。

在《智人之上》的第一部分,赫拉利概述了人類信息網(wǎng)絡的歷史發(fā)展過程中面臨的關鍵困境,以及在困境中的不同選擇怎樣塑造出截然不同的人類社會。

第一個困境是真相與秩序。智人的崛起伴隨著故事的發(fā)明,各種創(chuàng)世神話、宗教故事、君主救世的傳說,把個人納入家庭、民族、宗教、國家等等的網(wǎng)絡,將公眾團結起來。故事創(chuàng)造出新的現(xiàn)實:存在于主體間的現(xiàn)實。法律、神祇、貨幣、國家認同等等都是主體間的現(xiàn)實,存在于信息交換之中,因為人的講述而存在。

故事有著如此重要的地位,掌握了故事的講述資格就是掌握了權力。正如信息不等同于真相,權力也只有部分來自對真相的了解,而另外一部分則來自在一大批人中建立秩序的能力。當真相與秩序相矛盾的時候,要么是真相被限制,要么是秩序被打破。例如達爾文的進化論,它讓我們接近物種起源的真相,但也破壞了許多社會秩序賴以維系的核心神話,因此許多政府與教會都對進化論的教學加以禁止或限制,寧可為了秩序而犧牲真相。

第二個困境是官僚制度。在傳遞故事的過程中,文件產生了。文件同樣也創(chuàng)造了現(xiàn)實,而不僅僅是呈現(xiàn)了現(xiàn)實。文件記錄下財產、稅收與支付的相關信息,打造出行政體制、王國系統(tǒng)、宗教組織和貿易網(wǎng)絡,隨之而來的是官僚制度。官僚制度的重點并不是去了解世界真實的樣貌,而是給世界強加一套全新、人為的秩序。官僚制度有的于個人有利,比如維持一個千萬人口的城市的污水管控系統(tǒng);也有的帶來意想不到的后果,比如對保護動物瀕危級別的判定,可能只是出于傳統(tǒng)或習慣所決定的,但對于該動物卻是生與死的區(qū)別。

但不論是有益的還是有害的,個人都很難搞清楚官僚制度背后的規(guī)則。這導致了權力的移轉。隨著文件成為許多社會鏈條的重要節(jié)點,文件開始承載著無與倫比的權力,能掌握這些文件背后的神秘邏輯,就能成為新的權威人物。

第三個困境是自我修正機制。當人無法平衡真相與秩序,信息網(wǎng)絡就出錯了。自我修正機制的第一步,就是認識到人類會犯錯、會墮落。在這種情況下,機構該做的不是對人類絕望,想盡辦法繞過人類,而是積極找出錯誤并加以修正。

但是維持自我修正機制也有利弊。有的機構自我修正機制較弱,有的自我修正機制較強。如果自我修正機制較弱,有時就會造成人為的歷史災難,但機構的長久延續(xù)、傳播與權力卻也得益于此;而如果自我修正機制較強,雖然有利于追求真理,但會讓維持秩序的成本大大上升,有時候則會從內部破壞網(wǎng)絡的穩(wěn)定性。

最后一種困境是分布式信息網(wǎng)絡和集中式信息網(wǎng)絡。人們常常會把民主與集權視為兩種相對的政治與道德體系,但赫拉利將民主與集權視為兩種相對的信息網(wǎng)絡類型。民主制度會讓信息沿著許多獨立渠道自由流動,而中央集權制度則是將所有信息集中在一個核心樞紐,兩者各有優(yōu)劣。

近現(xiàn)代的大規(guī)模民主是伴隨著錄音機、電視等大眾媒體興起的,但大眾媒體只是讓大規(guī)模民主成為一種可能,而不是成為必然。大眾媒體同樣可能造就其他類型的政權,比如大規(guī)模集權??茖W技術創(chuàng)造的只是新機會,但要追求把握哪些機會,依然由人作出選擇。下一波信息革命正蓄勢待發(fā),而這將是民主與集權的新一輪競爭的基礎。

如果計算機獲得了主導權……

這些歷史上糾纏著人類信息網(wǎng)絡的困境并未消失,只是取得了暫時的平衡,而計算機時代將攜萬鈞之力,強勢打破現(xiàn)有的格局。在《智人之上》的第二部分,赫拉利探討了如果由計算機掌控信息網(wǎng)絡,我們的社會、經濟、政治生活將變成什么樣子。

人工智能是歷史上第一個能夠自行作決策、創(chuàng)造新想法的技術。赫拉利認為未來人類社會可能出現(xiàn)一道新的“硅幕”(相較于冷戰(zhàn)時期國際政治格局的“鐵幕”而言),其兩側可能不是民主政權與集權政權,而是一側為所有人類,另一側則是我們無法理解的算法霸主。

從前的故事都是人類心智的產物,但如今人工智能已經有能力講故事、寫音樂、畫圖像、做視頻,甚至可以編寫自己的代碼。比起那些有血有肉的官僚,人工智能工具更懂得怎樣尋找和處理資料數(shù)據(jù),也比大多數(shù)人更懂得怎樣編故事。當處理文件的任務漸漸移交人工智能,誰又能說它們不是新的掌權者呢?

計算機強大的數(shù)據(jù)處理能力,讓人類開啟了對它的造神敘述。許多人相信,只要給計算機足夠的信息,它一定能越來越接近真理和真相,擁有智慧和力量。但計算機也是會犯錯的,不是計算錯誤,而是像人類一樣在真理和秩序的平衡之間犯錯,強大的“計算機神”可能在人類身上施加如獵巫事件那樣的錯誤。

非人類智能作出的決策已經能夠塑造重大的歷史事件。一個典型事件發(fā)生在2016—2017年,臉書算法助長了緬甸有關羅興亞人的暴力沖突。臉書是緬甸人主要的新聞來源,自2016年起臉書上針對緬甸少數(shù)族群羅興亞人的負面新聞、陰謀論乃至假新聞愈演愈烈,掀起了民眾對羅興亞人族群的強烈仇恨,終于使政府軍和極端分子對羅興亞人發(fā)動了種族清洗,摧毀上百個羅興亞村莊,數(shù)以萬計的平民無辜喪命,73萬人流離失所。聯(lián)合國的事實調查團在2018年得出的調查結論認為,通過散播充滿仇恨的內容,臉書在這場沖突中扮演了“決定性的角色”。而這一切只是因為人類管理者為了留住用戶、推高股價,給臉書算法定了一個首要目標:提升用戶參與度。隨后,算法通過反復試驗,發(fā)現(xiàn)最有效的就是憤怒這種情緒,最能提升人類參與度的正是充滿仇恨的陰謀論。所以,為了追求用戶參與度,在沒有上級明確指示的情況下,算法就做出了一個致命決定:傳播憤怒。計算機與人類的差異實在太大,它采用的策略很可能是所有人類從未想到的,自然也無力預見并阻止。

新的計算機網(wǎng)絡是好是壞還難以言明,我們能確定的是,人類將很難理解這種網(wǎng)絡,而且這種網(wǎng)絡是會犯錯的。因此,人類建立的機構除了要能夠發(fā)現(xiàn)各種常見的人類弱點,還得有能力察覺從未見過的錯誤。

赫拉利在《智人之上》第三部分探討了社會該如何應對非生物信息網(wǎng)絡的裨益與威脅。

新計算機網(wǎng)絡給民主和集權整體都帶來了新挑戰(zhàn),但更大的威脅在于,它可能造成全球性的危機。數(shù)字霸權、數(shù)據(jù)殖民、破壞就業(yè)、將人類社會分裂成信息繭房、從代碼戰(zhàn)到熱戰(zhàn)……這些可怕的未來并不是毫無征兆。

但好在目前的情況還在人類掌控之中,至少在未來幾年里,我們智人仍然有能力塑造我們的未來。國際社會迫切需要針對人工智能而制定并維持一套國際協(xié)議,以前所未有的信任與自律監(jiān)管人工智能。我們每個人都需要了解這場信息革命的本質,我們在編寫計算機代碼的時候,絕不只是在設計一個產品,而是在重新設計人類的政治、社會與文化。

歷史不是確定的,沖突絕非必然。反過來這也讓我們每個人都背負了重大的責任,需要作出正確的選擇。只要我們放下自滿,懷抱信心,就能夠打造有制衡機制的信息網(wǎng)絡,不讓人類失去對未來的掌控。要做到這點,并不需要發(fā)明什么其他的奇跡技術,也不需要想出什么過去世代都想不到的天才主意。想要打造更有智慧的網(wǎng)絡,需要的只是我們放下天真與民粹的信息觀,摒棄想要絕對正確不犯錯的幻想,并且認真投入一項困難但平凡無奇的工作:為各種機構制度打造強大的自我修正機制。這或許就是《智人之上》一書最想提供給讀者的重要啟示。