用戶登錄投稿

中國作家協會主管

人工智能介入寫作帶來的三大問題
來源:文藝報 | 蔡 嘯 吳 娜  2024年09月23日09:30

以人工智能(AI)為驅動的第四次科技浪潮已經來臨,正深刻改變千行百業(yè)和整個經濟社會,并成為國際科技實力競爭的焦點之一。而以ChatGPT為代表的生成式AI大模型,讓AI寫作變得極為便捷、高效,已經廣泛應用于幾乎所有需要文本寫作的領域。有作家表示,一個勤奮的作家創(chuàng)作一百萬字的小說原本需要一年多,現在借助AI工具需要一兩個月,以后還可以縮短為一到兩周,已經接近閱讀這篇小說的時間了。然而,隨著AI寫作的橫空出世與快速發(fā)展,關于其權屬主體、信息泄露等方面的爭議和憂慮也隨之而來。

一、AI是不是創(chuàng)作主體

AI能夠生成以往沒有的新內容,其作用遠超傳統(tǒng)的寫作工具如筆或電腦。因此一些學者和作者認為應當賦予AI創(chuàng)作主體地位,創(chuàng)作主體已經不限于人類了。有的作者甚至在作品署名時加上了AI,認為應該尊重AI的貢獻,否則就是竊取其勞動成果。但是,在法律上,AI不具備法律主體地位,也無法獨立創(chuàng)作,只能按照人類發(fā)出的指令生成文本。AI生成的文本需要人類修改完善后才能交付。

另一種觀點認為,應限制AI寫作的使用,以維護創(chuàng)作的純潔性和人類的主體性。在2022年的某些文學競賽中,明確規(guī)定禁止AI參與創(chuàng)作。但很快隨著ChatGPT的橫空出世,帶動一大批大模型推出,包括功能的迅速完善迭代,無數人開始使用AI寫作,限制的呼聲越來越弱。AI寫作可能會像洗衣機、電腦、智能手機一樣,逐漸成為人人使用、不可或缺的生產和生活工具。

我們再從創(chuàng)作能力看,AI難以真正理解人類情感和復雜的文化背景,寫作質量也高度依賴輸入數據的豐富性和多樣性,這限制了其在文學創(chuàng)作中的深度和真實性,以及在職場文本寫作中契合實際的程度。AI尤其可能生成違反倫理道德甚至違反法律的文本,因此在正式交付使用或發(fā)表之前,必須依賴人類作者審核和修改。如果文本中出現了道德或法律問題,責任不應歸咎于AI,而應由人類作者承擔。

此外,文藝作品的創(chuàng)作需要作者的人生經歷和情感體驗,很大程度上是感性的過程,而機器是高度理性的。盡管AI能模擬人類情感的抒發(fā),但情感的復雜性導致將其變成數據編碼十分困難,AI能模仿和表達的只是皮毛。

因此,只有當AI真正具備情感和欲望時,它才可能獨立創(chuàng)作出真正的藝術作品,并為自己爭取創(chuàng)作主體地位。但是,那時候,AI甚至可能產生統(tǒng)治地球和人類的想法并付諸實施,其對人類社會的影響將遠遠超出AI寫作的范疇。

二、作品權屬如何劃分

與上個問題相關,AI參與創(chuàng)作的作品,其版權、著作權、專利等權屬應當屬于誰呢?首先,AI無法享有知識產權,因為我國法律主體僅包括自然人、法人、非法人組織和國家,只有這四種主體才能享有權利并承擔義務,這也是整個法律體系的基石。而AI不是法律上的權利義務主體,也就不能擁有權屬。若要賦予AI法律意義上的權利和義務,則必須改變整個法律體系的基石,這將引發(fā)一系列連鎖反應。

其次,任何權利的獲得要么是權利主體自己爭取要么有利益代言人。但AI目前只是執(zhí)行指令,沒有訴求,也不會多少人真心想要為AI爭取權利。從必要性和可行性來看,為AI賦予權利義務都不是短期的事。除非像科幻小說描述的,AI產生了意識、情感、欲望,要為自己爭取權利。

最后,在司法實踐中,判斷一篇文章或作品是否使用了AI,從AI文本生成的機制、作者的后續(xù)修改等角度來看,無論是通過專家鑒別還是技術手段,都難以發(fā)現物理痕跡,也無法得出具備法律效力的確定結論。這些內容是采用人類語言、模擬人類思維創(chuàng)建的,筆者認為其與人類創(chuàng)作的作品在本質上沒有區(qū)別,難以清晰區(qū)分。即使我們憑感覺能判斷出AI的參與,但很多時候也很難找到實際的“證據”。

還有人認為,如果使用他人的作品和數據訓練大模型,或者使用這個大模型生成文本,就要給原作者權屬。但這在法律上都未被認可。訓練模型的數據來源與授權必須合法,這是另一個法律問題。對于使用這個模型的人而言,就像租用了一臺機器去耕作,收獲的小麥不需要分給機器所有者,更不需要分配給機器。另外,由于AI生成文本是隨機的,即便不同作者使用同一工具輸入完全相同的指令,生成的文本也不會完全相同,因此版權糾紛的可能性較低。

因此,在筆者看來,AI生成的作品的權屬無爭議地歸屬于使用AI的人類作者。

三、如何解決隱私和保密問題

AI寫作需要將數據、文本、指令以及用戶信息傳輸給平臺,而平臺掌握這些信息后,存在信息安全和隱私泄露的風險。尤其是開放的平臺還會遭受互聯網的攻擊。這就限制了AI寫作的應用,有的重要政府部門已經明文禁止使用某些AI工具寫作。

從保密角度考慮,自行開發(fā)寫作大模型,并在對外封閉、對內聯通的網絡中使用,所有的東西都掌握在手里,無疑是最安全的。

但是了解AI寫作原理的人都知道,開發(fā)一個寫作大模型的成本非常高。由于寫作涉及的領域十分廣泛,即便是一份報告或一部小說,也可能跨越多個行業(yè)和領域,因此訓練、運營、維護大模型的成本非常高。類似于ChatGPT的大模型,需要海量的數據、算力、存儲,還有運算的基座,基本是百億人民幣起步。ChatGPT訓練用的數據就是整個互聯網上所有數據,涵蓋了人類幾千年歷史積累的知識、信息。因此,訓練這樣的大模型只有極少數實力雄厚的大型機構才有可能完成。當然,利用免費的開源數據進行二次修改可以大幅降低成本,但正如有人所說,“免費的往往是最貴的”,你無法要求數據提供者提供個性化服務,也無法知道其中是否隱藏了潛在的風險。

將已有的AI寫作平臺作私有化部署,實現與互聯網的物理隔絕也是一種不錯的選擇。在局域網內部署高水平的寫作大模型,其成本在千萬人民幣級別,大型企業(yè)和政府機構已經具備承受能力。只不過你至少要有一個封閉的內網,并且有這個需求,愿意花這筆錢??上У氖牵钕绕凭植⑶夜P者認為使用體驗較好的ChatGPT4,還沒有開放私有化部署。

那么軍隊、政府部門這種安全訴求大于效率訴求的機構,可以自主開發(fā)大模型并做內部部署。關乎國計民生的金融、能源、交通等領域也可以這么做。其他大型機構可以在內部部署現成的AI寫作平臺,成本低很多,安全性也會差一些。包括作家在內占絕大多數的散戶寫作者,使用大模型服務商的服務是最佳選擇。這需要將指令傳到外部云端,在云端運算完再把結果傳回來,隱私和保密就難以保障了。當然這也可以通過不斷完善立法和執(zhí)法予以規(guī)范,現階段個人作者在使用AI寫作時應具備保密意識,避免將需要保密的信息傳給大模型。

總之,從科技發(fā)展的趨勢來看,AI的作用將日益增強,這一趨勢不可阻擋。隨著AI功能的完善和應用的擴展,越來越多的人將在更多領域使用AI寫作,這也將引發(fā)更多的爭議和問題。甚至可能會出現一個新的奇點,顛覆我們現有的認知。AI必將在爭議中迅速前行,因此,擁抱AI、善用AI、完善AI,是我們必須面對和實踐的課題。

(蔡嘯系北京作家協會會員、湖南大學行業(yè)產業(yè)研究生導師,吳娜系中國移動研究院AI中心主任研究員、高級工程師)