|
在ChatGPT橫空出世的幾年之前,我曾負責過一款包含AI模塊的產(chǎn)品。 當時我們開發(fā)了一個以文搜圖的功能,用戶輸入一段文本,系統(tǒng)會將與文本描述最匹配的圖片找出來返回給用戶。簡單來說,這個功能的邏輯其實是在圖片上傳的時候,系統(tǒng)就對圖片做分析,給圖片生成文本摘要,以此將以文搜圖轉(zhuǎn)換成以文搜文。 當時為了出個Demo內(nèi)部演示,我們拿了很多張狗的照片給AI做訓練,包括不同顏色、不同品種、不同拍攝角度……訓練完之后,只要上傳的照片里帶有狗,都可以準確識別出來。 在內(nèi)部產(chǎn)品演示的時候,我們搜索到了一張貓狗同框的照片,一只貓一躍而起,在畫面中剛好位于狗的頭上。結(jié)果那張圖片的摘要成了“……狗頭上頂著拖把”,就是這么離譜。 當時我們有一句戲言——人工智能,有多少人工,就有多少智能。
雖然上述例子中的AI功能并非是AI寫作,但基本原理是相通的。AI底層各種技術(shù)、各種算法或許一直在進化,但有一點是不變的,就是所有AI模型都需要經(jīng)過大量的訓練才能“好用”,尤其像是AI寫作這樣的能力,需要學習大量的、多元的、風格各異的數(shù)據(jù),才能實現(xiàn)理解和運用。 ChatGPT之所以能夠“像人一樣”與人類交談,回答各種問題,是因為AI進行了全面地學習。AI從海量的訓練素材中,習得人類的語言規(guī)則,挖掘出人類認知體系的特征要素,從而獲得與人類對話、行文的能力。這種模式恰如杜甫曾說過的——“讀書破萬卷,下筆如有神”。 但是,AI的這種學習和人類的學習是存在差別的。 舉個簡單的例子,AI可能會發(fā)現(xiàn),故事中母親去世,孩子會哭泣。對AI來說,“孩子哭泣”是發(fā)生在“母親去世之后”的大概率反應。而對于人類來說,我們想到的則是這件事情對“孩子”的意義,甚至開始腦補此后“孩子”的命運。 這種差異能說明什么呢?事實上,目前階段的AI寫作就好比,讓一個小學生一口氣背完了所有的世界名著,然后讓這個小學生去寫作文。小學生或許能寫出類似“生命中所有的燦爛,終要寂寞償還”(加西亞·馬爾克斯《百年孤獨》)或是“歷史的全部是強者寫的。弱者只有被踩在腳下的份兒”(茨威格《斷頭王后》)這樣富有哲理的文字,令老師眼前一亮,取得一個高分。但是,以小學生的閱歷其實無法理解這些文字背后的現(xiàn)實意義。如此一來,當500字的作文變成5000字,這種浮于表面的創(chuàng)作能力,便開始暴露出膚淺和虛無的本質(zhì)。 這也是為什么,很多時候我們會發(fā)現(xiàn)AI寫出來的東西情感單薄、東拼西湊、流于表面。 當然,講這些不是為了給AI招黑,而是想借此和大家一起從不同的角度來審視AI,簡單理解它是如何工作的。 數(shù)據(jù)是決定AI究竟有多“智能”的關(guān)鍵要素,只有“習得”足夠的數(shù)據(jù)才能讓AI發(fā)揮作用,隨著數(shù)據(jù)量的增加,AI的學習能力和應用能力也會不斷提高。在ChatGPT背后,正是大型語言模型(Large Language Model,由十億量級參數(shù)的神經(jīng)網(wǎng)絡組成的語言模型)在發(fā)揮作用。 在驚嘆于ChatGPT強大生成能力的同時,我們應該看到AI的局限性。
首先,AI非?!氨俊?。 根據(jù)普林斯頓大學研究人員估算,為了支撐一個大型語言模型訓練龐大的計算需求,可能需要消耗數(shù)百萬瓦時的電力,才能取得如今的成績。而我們的大腦僅相當于一盞12瓦的燈泡,即可高效應對同等挑戰(zhàn)。 一個人類小嬰兒,即使只見過幾張小狗的照片,日后見到真正的小狗,也可以輕松將其識別出來。人腦是天生的“學習機器”,不僅具有強大的學習能力,而且可以不斷適應和改進自己的學習策略,提高學習效率和準確性。這種學習適應能力是大腦與人工智能技術(shù)最大的區(qū)別之一。 你或許會驚嘆于AI“淵博”的學識,但事實上,AI本身的學習效率非常低,遠不如人腦。當有新的概念、知識出現(xiàn)時,誰能更快掌握和運用,還真不好說。 舉個簡單的例子,網(wǎng)文中有很多概念、套路、故事類型,可能就是目前AI的知識盲區(qū)。這一點從之前對GPT4、文心一言3.5、混元助手、通義千問、訊飛星火、Kimi六款產(chǎn)品的測評中就可窺見一二。某些場景下,即使是新手作者的表現(xiàn)也能優(yōu)于AI。 其次,AI永遠“正確”。 AI的底層是數(shù)學,數(shù)學的嚴謹使得AI總能做出最“正確”的選擇。 但是,小說創(chuàng)造的是“人”,世上不存在完美的人,只要是人就會犯錯,會“意氣用事”、“一時沖動”、“一葉障目”、“本末倒置”。這些“錯誤”或者說缺陷是人性的重要組成,在創(chuàng)作小說時,它們也是驅(qū)動故事發(fā)展的動力之一。 現(xiàn)階段運用AI寫小說時,“耿直”的AI還不足以還原出真實的人物面貌。 在人類創(chuàng)作的故事中,面對同一事物,人物可能會產(chǎn)生不一樣的理解,從羅生門到最低級的看岔了、嘴瓢了,都有可能發(fā)生,這些“錯誤”或許是誘導后續(xù)情節(jié)的重要線索。但AI的世界往往丁是丁卯是卯,很難在這方面給出很好的構(gòu)思設(shè)計。 人類認知世界從來不是絕對客觀的,錯誤重要且必要。 既然說到“人性”,就不得不提AI的另一項不足——“人格僵化”。 如果你曾嘗試用AI寫小說,應該不難發(fā)現(xiàn),AI或許可以寫出一些不錯情節(jié),但在人物塑造并不盡如人意。這些人物間的互動、對話,往往很“公式化”,喜怒哀樂都流于人物表面,缺乏深度。 但人和人終究是不同的。同一件事情,換一個人來應對,必定會有完全不同的反應,故事走向也會因此而大不相同。尤其一些復雜的人物,幾乎不會讓人一眼看穿其真實想法和意圖。 有的人生氣了會摔東西錘墻,有的人生氣了會朝身邊其他無關(guān)人員撒氣泄憤,有的人生氣了會自殘自戕,有的人生氣了卻會笑呵呵然后背后捅刀子……但AI筆下暴怒的人物,通常都在無能狂怒,將情緒宣泄得能一眼看穿。 現(xiàn)有技術(shù),不足以讓AI建立一個完整的虛擬“人格”,更不必說將這些人格融入到故事中,展露出恰如其分的言行舉止。 另外,AI不具備社會化思考能力。 人類是社會化動物,這意味著我們不能僅從個體的層面思考什么是“人”,人類的許多認知能力都是在社會化的過程中發(fā)展出來的。 著名人類學家羅賓·鄧巴(Robin Dunbar)曾經(jīng)提出過人類認知的多階意向性理論。在我們出生后不久,就可以將自我與他人分別開,意識到“自我”就是一階意向性的表現(xiàn)。當我們長大一些,發(fā)現(xiàn)對于同一件事情,我和別人可能會有不同的想法,這時我們就具有了二階意向性。再往后,當我知道張三猜測出李四的想法時,我們就具備了三階意向性,依此類推。 簡單來說,多階意向性就是理解他人內(nèi)心,透過他人視角理解社會關(guān)系的能力。 根據(jù)這一理論,小說作者至少應該具備四階意向性,才能夠講好故事。一些頂級的創(chuàng)作者,如莎士比亞,甚至可能具備六階意向性。 目前AI本身的認知能力,尚處于零階意向性的水平,可想而知其創(chuàng)作的人物水準,基本不具有多少社會化思考的能力。這決定了AI在設(shè)計人物和情節(jié)時,存在致命的短板。 第五,AI無法“無中生有”。 目前AI所有的能力,都是通過學習人類現(xiàn)有知識而來,AI的知識運用與創(chuàng)新,同樣來自對現(xiàn)有知識、概念體系的變換,而不是真正的創(chuàng)造。 對比人類的表現(xiàn),我們現(xiàn)有的小說作品中,神仙佛陀、妖魔鬼怪、魑魅魍魎、外星文明、異能喪尸……各種由純粹想象創(chuàng)造的概念隨處可見。題材上,有無限流/快穿、系統(tǒng)文、末世文等多種多樣的形式。元素上,有陰陽五行、魔法詛咒、機甲飛船等天馬行空的力量體系。 人類的創(chuàng)造力,為我們構(gòu)建了一個遠比現(xiàn)實宏大得多的小說世界,讓讀者們津津樂道。 可這樣的“無中生有”,AI還做不到。 最后,AI對于網(wǎng)文很陌生。 經(jīng)過一段時間的嘗試,我發(fā)現(xiàn)目前階段AI并不了解網(wǎng)文的寫作套路和寫作風格。當我們詢問網(wǎng)文創(chuàng)作之類的問題,AI只能給出一些整合互聯(lián)網(wǎng)公開信息的回答,遠不如在傳統(tǒng)小說等領(lǐng)域的表現(xiàn)。當然,原因也不難猜,這些AI工具或許并未經(jīng)過網(wǎng)文數(shù)據(jù)的訓練,拋開版權(quán)問題不談,網(wǎng)文動輒上百萬字的體量,也不是現(xiàn)有AI訓練可以承載的。 可以說,想要用AI來直接生成一部網(wǎng)文,現(xiàn)有的技術(shù)和AI工具,可能都沒做好準備。 當然,我絲毫不懷疑隨著技術(shù)不斷進步,AI的上述缺陷都能夠被解決,但這些都不是簡單的問題,會有一個非常漫長的進化過程。不論現(xiàn)在AI寫作看起來有多神奇,作為小說作者,這個領(lǐng)域依然是我們的主場。AI有其可圈可點的表現(xiàn),同樣有不盡如人意的地方,它還遠未達到成熟階段。 比起恐慌AI的強大,或是蔑視AI的不足,我們更應該學會如何駕馭AI,乘上時代的浪潮往前走。 以上是此次分享的內(nèi)容,如果大家有更多看法,歡迎留言一起探討????????? |
|
|