提示詞工程:智能長篇小說的核心驅力
一
源 起
大約在三年前,我開始組建團隊,探索智能寫作的方法①。從自然語言處理的技術角度來看,智能寫作已經不再是一個難以攻克的難題。只要找到一條合適的道路,便能夠大展拳腳。當時,我們制訂了智能寫作的方案,并邀請了計算機、文學、語言、哲學、古籍、數學、地理等多個領域的研究者共同探討這一方案。大家從各個角度對這一方案進行了評估,認為,實現智能寫作的可能性非常大,因此,我們充滿信心和激情,準備將這一方案付諸實踐。
我們的方案是,采用自然語言處理技術,借助GPT2進行語句替換,以期實現智能寫作②。然而,2022年底GPT3.5的發布給我們的設計帶來了巨大沖擊。我們發現,幾乎所有設計都可能被GPT3.5所替代,留給我們的技術空間已經非常有限。這讓我們感到有些失望,團隊中的計算機專家認為研究空間已經被大幅壓縮,甚至產生了對計算機專業合理性的懷疑。同時,由于ChatGPT訪問的困難,最新技術無法快速使用,這也影響了我們的探索。
四五個月后,國內大模型蓬勃發展,在技術上也逐漸能夠滿足我們的需要。在重新審視問題后,我們決定將工作方案與新的大模型技術結合起來,以便更快速地實現智能寫作。我們將大模型能夠實現的部分交給它處理,同時制訂了提示詞工程的工作方案,其原則是,將大模型可以實現的部分交給大模型完成,其他部分由人制定,最大限度發揮大模型的潛力。這一方案此前尚未有人探索過,我們對其可行性也心存疑慮。考慮到大模型的巨大潛力,我們決定勇敢嘗試。通過這一調整,我們將主要精力投入提示詞的實驗和工程建設上。
此前,我們雖然做過提示詞撰寫工作,也對大模型的生成結果做出不少實驗,但是生成長篇文本卻并沒有嘗試過,這也是單獨個人能力達不到的。我憂慮的并不是提示詞本身的質量,也不擔心大模型生成的文本質量,因為這些都可以通過繼續優化來提升;我所憂慮的,一旦投入50條或100條提示詞到大模型中,大模型失去邏輯性,無法輸出文本,以致無法進行下去。進而說,哪怕100條提示詞成功了,也不代表1000條提示詞能夠成功,特別是長篇小說往往要達到2000條甚至更多的提示詞,大模型能承受如此多的提示詞連續投入嗎?我們心中無數。我們對大模型的文本生成界限還一無所知。文本生成能力是否會一直保持穩定?我們也不知道。我個人無法完成這項任務,因此,我和集美大學的周偉薇老師一道共同建立大模型創意寫作工作坊,邀請華東師范大學和集美大學的幾十名同學參與探索。在這個過程中,我們遇到了許多困難。一個基本困難就是提示詞的編寫,怎樣做才是達到要求?這并不容易。
在使用大模型進行研究或應用落地時,要注意安全問題。個人研究時可以用ChatGPT,但如果追求可以成長的平臺,那么就只能使用國內大模型來生成。我們希望建立一個公共的平臺,為了規避可預計的風險,并且考慮到長期的數據安全問題,因此并不使用國外的大模型。盡管目前國產大模型的表現尚有欠缺,但我們堅決選擇使用國產大模型,只要它們能夠正常運行。我們期待在未來幾年內,國產大模型能夠與國外的大模型齊頭并進,成為常用的生成工具,那時,我們的平臺系統也基本搭建起來,可以生成具有相當質量的智能小說內容。因此,從一開始,我們就明確大模型的探索原則:以國產大模型為應用底座。
二
“失控”的內容生成
為了達到我們的實驗目標,即迅速檢驗提示詞投入大模型的效果,我們采用了一種特殊的方法:復刻已有的網絡小說,以快速獲得一個小說結構。復刻就是對照既有小說寫作提示詞,并將這些提示詞投入大模型。我們的實踐發現這一技術路線是高效的,能夠達成實驗的目的。
在實際操作過程中,我們對探索方法進行了多次調整和優化。怎樣寫作高質量的提示詞成為前三次工作坊的主題。后來慢慢找到寫作的技巧,但另一個問題產生。一開始,我們希望大模型能夠生成符合我們期望的文本結果,但現實卻是大模型的生成結果往往顯得有些“失控”。這不免讓我們感到手足無措。我們努力進行控制,但很快發現,幾乎所有的控制都無法完成任務。提示詞寫長了不行,寫短了也不行。將提示詞輸入大模型時,我們發現每次生成都不一樣,當然如果刷新到六七次,重復就開始出現了。但無論哪種情況,生成的文本與復刻對象在文本語句相似度上幾乎為零。起初,這讓我們非常煩惱,后來我們逐漸領悟到:既然無法完全控制大模型的輸出,何苦一味追求符合自己完美構想的結果呢?或許這正是大模型本身的特點,試圖讓它按照我們的期望產生完美的文本結果幾乎是不可能的。
當我們放棄這種想法后,發現道路反而變得更加寬廣。如果將這種“失控”視為大模型自身的一種特殊變量,我們可以嘗試為它提供一個適度的框架,讓它根據自身的變量處理方式產生不同的文本。這樣一來,我們便可以利用提示詞讓大模型生成小說文本,只要我們為其提供一個相對具體的框架就可以進行創作。凱文·凱利認為,復雜的系統(如生態系統、經濟系統、社會系統等)在看似混亂的過程中,實際上是在進行自我組織和自我調整,從而形成新的穩定狀態。這種過程是自發的,不受任何單一元素的控制,而是由系統內部的所有元素共同參與③。大模型的文本生成正暗合這一復雜系統的構想。只要我們放棄人類完全控制文本創作的執念,將文本的具體生成視為大模型的任務,并且具有較高的偶然性,人機相融,人只要負責整體框架設計就可以,那么我們就達成了某種可接受的整體性。這是我們在大模型長篇小說寫作中獲得的第一個觀念:人來保證長篇小說的整體可控,由大模型進行細節控制(哪怕這時顯得有些失控)。
實際上,已經有不少人嘗試利用大型語言模型來進行小說創作。我的網絡寫手學生也告訴我,他們使用分段提示詞投入大模型來提供靈感,然后進行大量的修改,成稿之后再交給網站編輯。這已經是默認的網絡小說流水線。
在我們的智能寫作探索之前,國內已經有公司進行了相關嘗試,比如一個優秀的創意寫作公司彩云小夢,主要使用GPT2進行語句續寫。這一探索的本質是將寫作任務交給大模型,只給大模型一個句子,讓其進行續寫。但是由于此前GPT2本身的能力限制,這一實踐推進緩慢。2024年,清華大學沈陽教授團隊借助ChatGPT完成了一個中篇小說作品,方法是讓大模型編寫一個提綱,再按照提綱的條目生成內容,就此結成一個小說。這是將一個大型任務分解為諸多小任務的做法,這種做法與我們的做法相似,即利用大語言模型,將大型任務分解為小任務,小任務轉變為提示詞,通過提示詞投入大模型的方式來生成內容,結成一部小說。
對于短篇和中篇小說而言,上述兩種方案已經是有效的,但對于長篇小說而言,上述兩種方案都有可取或不可取之處。可取之處是,大模型自身具有創作能力,這證明大模型進行小說寫作是可行的;不可取之處是,兩種方案從本質上講都依賴大模型自身的上下文長度,這一上下文長度也成為2024年國產大模型發力點,但這種上下文長度指的是閱讀上下文,并不是生成上下文,生成文本與閱讀上下文的關系不是正比例關系,而是正指數比例關系,生成文本越長,閱讀上下文長度必須呈指數級別的提升。我認為前兩種方法就像黃河決口,在平原上自由流淌,最終形成一些河道,這些河道完全不受控制,是一種完全依賴大模型自身能力的做法。在當前階段,這種方法無法完成長篇小說寫作這一目標。如果大模型目前的上下文方案不改變,可能要到量子計算機普及時,大模型才能真正進行基于自身能力的創寫。
我們采用的方法是通過系統性提示詞向大模型提問,在提問過程中對其進行更精細的限制。再用黃河決口的比方,我們必須因勢利導,利用地形的優勢,讓決口之后的河水在狹窄的地方流淌,在平坦的地方修建河道,引導它沿著我們期望的方向前進。雖然這個過程可能會出現一些溢出,但這些溢出都在允許的范圍內。同理,大模型最終形成的文本基本上會遵循我們希望的整體大框架和方向,而不是像黃河決口后在平原上肆意流淌,失去整體控制。
在整個工作坊的實驗中,我們逐漸領悟到這種工作方式。通過提示詞工程這一方法,我們成功地生成了大量情節連貫的文本內容。這為我們進一步研究和探索提供了有力支持。
三
嘗試性的驗證
文本生成檢驗分為兩個階段。
第一個階段是將相同的100條提示詞投入6種國產大模型,以檢驗哪一種國產大模型能夠更好地生成文學文本。最終發現訊飛星火和文心一言這兩種大模型效果最佳,輸出文字多,表達也有一定的文學味道。月之暗面公司的KimiChat輸出文字較長,但表達效果欠佳,更像是商業交往文本,可能是因為訓練材料缺乏文學材料的緣故。其他大模型在連續投入30—50條提示詞之后,出現了無法回應,或只是將提示詞重新輸出一遍,或頻繁無結果輸出等問題。我們期待在再過兩三年后,有10種以上的大模型都能被成功使用。當然,哪怕是訊飛星火和文心一言,表達上也相對有些干癟,這是語料訓練過度廣泛導致的,如果我們縮小訓練語料,主要集中在小說語料上,并進行本地大模型微調,輸出效果會明顯上升。第一階段的成果是一部4.3萬字的中篇小說,2023年12月31日發布④。
第二個階段是2000余條提示詞生成的長篇文本,110萬字小說,2024年3月22日通過澎湃新聞發布⑤。百萬字小說的影響力明顯比較大,閱讀量和下載量都還不錯。有一些朋友讀過,覺得非常有趣。這可能是由于大模型的“文風”比較特殊的緣故。大模型生成的小說情節還算跌宕起伏,但推進的方式是議論式的,這跟我們寫小說不太一樣。我們在寫小說時,一般通過對話和情節描述來展現情緒,而不是一下子把所有內容都說出來。這種方式更有文學性,因為它可以逐步揭示情節,整個故事結構完整,包含了許多情節和心理活動。大模型生成的小說卻包含大量的議論性內容,讀起來不免乏味,我們雖然刪掉了明顯冗余和過度議論的內容,但其基本表述結構是無法修改的,只能任其如此。我們完全可以想見,目前讀到智能生成小說的讀者(尤其是文學學者)對小說是不太喜歡的,因為它與我們既有的小說寫法太不一樣。按我們目前對小說的看法,大模型小說全身皆病,非常“水”。我們也同意這樣的判斷。然而,考慮到大模型未來的迅速“進化”,也考慮到我們可以對大模型進行進一步調整,完全可以推斷,再過兩年,也許更短時間,大模型小說就可以從目前的“青澀”階段進展到相對成熟的階段,具有一定的寫作質量。
考慮到保存“歷史”狀態這一因素,我們盡量控制人工修改的幅度,只是對自動生成的文本做了一些必要的修訂,主要是調整情節跳躍的地方,對表達語句并未做修訂。由于大模型的“文風”實在獨特,修改就是動全身,也無法進行全面修訂。
大模型利用提示詞進行寫作時,有一個獨特的特點,即光明的尾巴。比如,我讓它寫一段情節,一次生成的長度通常在400—700字之間。使用任何國產大模型,生成的文本長度最多也只能達到500字。(基于2024年2月1日前的國產大模型能力)即使運氣好,生成700字,也時常會出現100字左右充滿正能量的結論性論證。這需要刪掉,保證后面的情節還能進行下去。
在寫提示詞時,這是一個特別痛苦的過程。后來我們發現,通過更具體地描述場景,可以更好地控制情節走向,也可以消除“光明的尾巴”。但是,如果提示詞過于具體,大模型就無法生成文本了。因此,我們需要學會巧妙地書寫提示詞。
當然,哪怕我們提升了提示詞的寫作技巧,也會發現,大模型時常寫出讓我們啼笑皆非的句子。以實驗性的中篇小說《扮演那個有魔法的人》為例,其中一處寫到游戲中的8種雕像,運用了排比句來描述它們,但是我們在寫作時很少使用這樣的句式,這正是典型的大模型寫作風格。
在圣殿的深處,田一元被八座巨大的種族雕像所吸引。他可以看到每座雕像都代表著一種不同的種族,而每一種族的雕像都散發著獨特的光芒。
首先,他看到了人類的雕像。這座雕像高大而威嚴,散發著一種智慧和領導力的光芒。人類作為艾澤拉斯上最強大的種族之一,他們的雕像自然也散發出無與倫比的威嚴。
接下來是精靈的雕像,他們堅毅而勇敢,散發出一種勇氣和堅韌的光芒。精靈作為艾澤拉斯上最勇敢的種族之一,他們的雕像也散發出了這種勇敢的氣息。
然后是妖人的雕像,他們機智而聰明,散發出一種智慧和創造力的光芒。妖人作為艾澤拉斯上最聰明的種族之一,他們的雕像也散發出了這種智慧的氣息。
接下來是獸人的雕像,他們優雅而神秘,散發出一種自然和神秘的光芒。獸人作為艾澤拉斯上最神秘的種族之一,他們的雕像也散發出了這種神秘的氣息。
然后是妖精的雕像,他們粗獷而強壯,散發出一種力量和狂野的光芒。妖精作為艾澤拉斯上最強大的種族之一,他們的雕像也散發出了這種狂野的氣息。
接下來是龍族的雕像,他們雄壯而威猛,散發出一種勇氣和榮譽的光芒。龍族作為艾澤拉斯上最崇尚榮譽的種族之一,他們的雕像也散發出了這種榮譽的氣息。
然后是亡靈的雕像,他們陰森而詭異,散發出一種死亡和破壞的光芒。亡靈作為艾澤拉斯上最恐怖的種族之一,他們的雕像也散發出了這種恐怖的氣息。
這樣的描寫暫時沒有辦法修訂,只能原樣保留,也算是一種“歷史狀態”。
第二階段的實驗是為了進一步驗證1000條以上的提示詞能夠在國產大模型上進行有效生成。我們采用了復刻現有網絡長篇小說的方式,這樣可以迅速獲得一個連貫的結構,投入大模型進行長文本實驗。我們首先選擇玄幻小說為實驗對象。目前的大模型適合寫玄幻、現實類小說,古典類有些困難,這可能與訓練材料有關。相信我們后面進行小說大模型微調之后,這些難點就會消除。整個工作流程是,對網絡小說的結構進行分析研究,根據大模型的特點,分解出網絡小說適合于大模型的情節分段結構,編程進行結構化處理,撰寫大量提示詞,建構出一套玄幻小說提示詞,并通過調用國產大模型API,將提示詞投入大模型,批量生成內容,抓取生成結果,形成一部長篇小說。從實驗結果來看,我們完成了設定的任務,并且收獲了不少有益的經驗。
由于提示詞是系統化的,所以整個小說的基本線索是連貫的,整體上能夠達成可控制,但是由于大模型生成具有偶然性,總是存在一些不確定性,導致細節上跳躍性大,不連貫處多,所以后期人工介入對其進行修改,刪除掉重復、累贅的部分,為情節跳躍的部分撰寫連接語句,同時也刪減了某些多余的結構,精減線索,以免大模型的描述太過分散,最終打磨成型,形成110萬余字。
由于百萬字智能小說是一個實驗性的作品,出現許多此前想不到的“失誤”。創作這一作品的時候,我們其實并不知道會出現什么結果,從最初設想來看,只要能寫出來,大模型能夠運行全部提示詞,就達到了我們的目標。這一目標成功完成了。我們后面進行必要的人工修正,使這一智能小說達到能夠閱讀的水平。我們相信,隨著大模型技術水平不斷提高,智能寫作的質量會不斷提升,人工后期調整的工作量會不斷降低。
從提示詞寫作來看,我們收獲了不少教訓,后面要避開,比如,新角色的出現一定要進行交代,否則就像憑空出現一樣,顯得沒頭沒腦。目前編寫提示詞時卻沒有做到這一點。大模型并不會自動理順人物邏輯,可以發現一個人物是新出現的,這要極長的上下文能力才能做到。目前來看,大模型能夠做到的是,將每一條提示詞視為標準,并按照提示詞的要求完成任務。它不會額外交代新角色的出現。所以,在后期修訂時,為了讓整個小說的文意通暢一些,我們在新人物出現的地方,往往加上一句,介紹來歷,以免顯得太突兀。
從目前生成的長篇來看,人物對話功能是單一的,完成三人以上對話還很困難,基本上是兩個人之間的互動,且缺乏個性特征,難以表達出符合角色特性的觀點和思想。我們或許可以利用AI Agent技術,將對話任務交由AI Agent自主完成,并不斷演化。這種做法不僅能夠提高工作效率,還能夠讓大模型專注于情節的生成。
通過以上工作,我們驗證了整個大模型創意寫作計劃的后三分之一,即投入大量提示詞之后,大模型能夠生成線索整體連貫的內容,這一點,只有嘗試過之后才能確認是行得通的。至于語義的流暢連貫,富有文學色彩,只能留待后面進行提升。
四
未來的工作:調適“智能”的比例
未來的工作主要包括四個部分,一是撰寫大量提示詞,并優化提示詞的結構和質量。一旦我們能夠生成足夠多的提示詞,就可以涵蓋大部分情節,然后可以進一步精煉和提升這些提示詞。二是建立提示詞敘事模塊和系統,可以智能組合并調用。我們計劃將這些提示詞分情節、分模塊,并建立情節箱系統。這個系統位于用戶和大模型之間,為未來的網絡寫手提供創作服務。三是進行大模型微調,提高文字表達能力。四是在以上工作的基礎上,建立人工智能寫作平臺,提供自動寫作服務。這一創新性平臺將按照用戶的創意生成文本,并利用提示詞引導大模型進行文本創作,最終呈現出一部嶄新的長篇小說。我們相信,這樣的平臺將為文學創作帶來革命性的變革。
這些未來的工作具有一個明確的指向:調適人工智能與人類智能的參與比例,不斷縮減人類的智能參與,將人力付出集中在智能創意上,而不是浪費在大量模式書寫的忍耐上;提高大模型模式化寫作能力,增大人工智能在創意寫作中的比重。目前來看,人工的成分過多,后面的工作將不斷減少人工成分,減少修改的工作量,讓每一個對長篇小說寫作感興趣的人都能夠通過人機融合的方式進行創作。一個勤奮的網絡寫手寫作100萬字的小說大約需要一年,通過機寫方案,完成這一體量的作品大約一個半月,下一步的目標是將這一時間縮短為兩周。
我們可以確定的是,面對大模型生成的提示詞工程將以一種新的敘事學方式建立起來。這種新敘事學不同于以往人類寫作者的傳統敘事學,它是半人半機的,是人類敘事構架+智能細節寫作,兩者的高效融合將是未來的重點。大模型不斷發展升級,我們還需要根據技術發展來不斷更新這一敘事學框架。
這一方法的關鍵在于將一個大型復雜的任務拆解成若干個小任務,并讓每個執行者專注于特定的任務。這種模塊化的工作方式非常有效。為了實現這一目標,我們需要建立足夠多的模塊,并確保它們具有清晰的調用邏輯,可以高效完成自動調用任務。因此,我們后面的一個重要工作就是不斷優化提示詞敘事質量,探索多元化的提示詞敘事工作,并建立提示詞敘事學。
提示詞敘事學此前從未出現過,只有當大模型可以進行文字寫作之后,這一敘事學才成為可能。因此,提示詞敘事學的基礎是大語言模型。提示詞是自然語句,但又不同于自然語句,而是大模型可以有效或高效執行的自然語句。從位置來看,提示詞位于自然語言表達和大模型的自然語言理解、輸出之間,起到橋梁作用。它是一種解釋性語句,這一解釋性依賴于其中介地位,它本身與自然語句存在相當大程度的重合,某種程度上具有較大迷惑性。中介即接口,兩端是人的智能與人工智能。從根本上說,提示詞的結構表征了一種新式的人機解釋關系,這一解釋關系所涵蓋的是,人的智能以某種比例向人工智能的讓步。
一部智能小說的結構需要注意涵蓋本類型的絕大部分結構。我們將分析大量網絡小說,獲得提示詞,從中分解出盡可能細致的結構。這些結構構成一個調用單元,可稱之為情節封箱。所謂情節封箱,就像把大量不同物品放入一個集裝箱中,我們將多條提示詞放入一個固定情節箱體,使其在智能調用中發揮作用。在長篇小說中有許多封箱元素,我們希望從中找到具體的封箱方法。盡管我們會借鑒普羅普在民間故事敘事學結構方面的獨特貢獻,但現有的理論并不能解決所有問題。我們必須意識到,僅僅得出結論是遠遠不夠的。更為關鍵的是,我們必須確保提示詞能夠適應大模型生成的需求。因此,還需要調整提示詞,以發現在提示詞封箱過程中,哪些句子組合在一起效果最佳。
在接下來的兩年時間里,我們一方面要生成大量提示詞,另一方面要進行實驗,以確定哪些提示詞進行情節封箱生成的文本質量更佳,這樣,在未來的智能調用中就具有充分的多樣性。最終,我們將擁有一種完全原創的結構,不再依賴任何外部結構。就像學習書法一樣,起初總是模仿多家風格,一旦掌握了多種風格,就開始形成自己的風格。
在情節封箱完成后,我們需要建立用戶交互系統,以保證用戶的需求得到充分體現。我們假定用戶為創作長篇小說的作者,他們通過交互系統,向系統提出詳細需求,通常這些需求至少應包含30條關鍵信息,最多不超過50條,超過50條,就可能出現用戶使用疲憊。這些要求通過系統轉化為提示詞的調用框架,這一框架進一步調用情節箱體,以形成系統性提示詞,并將這些提示詞投入大語言模型進行具體文本的生成。最終文本將通過人工進行修改,以去除某些不連貫或重復之處,也可以進行深度潤色,這完成看用戶需求。
生成工作可能在2天內完成,而修改工作大致需要2—4周時間。從整個系統平臺的建設來說,是一個大的工程,但對于平臺完成的成果而言,卻可以省去寫作者大量套路性寫作的時間,是一件值得為之的事情。
五
作為工程的提示詞及智能文學的未來
提示詞工程看似簡單,其實頗為復雜。我們的目標是基于這一原則,通過精心編寫提示詞以實現高效的快速投入。從本質上講,這與傳統的手工投入并無二致。我們現階段是通過建立小型Demo調用API投入大模型的方式,以求速度的提升。后期隨著創寫平臺的搭建,用戶直接向創寫平臺發出指令,創寫平臺進行提示詞的組合,并將提示詞投入大模型進行生成,從而達成定制長篇小說的目標。這樣的速度會越來越快。
從目前的提示詞與生成文本的比例來看,大約4∶1或5∶1左右,也就是說,為了生成百萬字的小說,我們需要撰寫20萬—25萬字的提示詞,如果這樣的提示詞的目標是生成一部小說,那么,很可能引發這樣的質疑:這樣做不是太費勁了嗎?質量也沒有那么好,何不直接寫一篇小說呢?
的確,如果只考慮一件作品,那么,提示詞工程是費力不討好的,但是,以提示詞工程進行智能寫作的意義在于,提示詞本身充滿變量,哪怕一條提示詞不改變任何變量,投入大模型產生的結果也不相同,一旦變量加入,提示詞本身的產量是相當可觀的,更何況我們進行了智能組合,這樣的產出變化是極其可觀的。從此考慮,提示詞工程是一個值得深入開墾的事業。
從目前來看,大模型的能力并不能達到百萬字級別的小說寫作,哪怕KimiChat達到了200萬中文的閱讀量,通義千問達到1000萬字的閱讀量,但對于小說寫作而言,依然還不能憑借自身能力完成3萬字以上的作品,人工必須不斷加入進行干涉,人工與智能結合,才能不斷突破大模型自身的限制。所以,我們應該充分利用提示詞工程的潛在能力,將100萬字的寫作任務分解為2000個500字的寫作任務,建立控制方法,完成這一組合任務。因此,我們無須等待大語言模型的暴力升級,就能夠解決長篇智能寫作問題。
與大模型融合進行文學創作對于網絡文學而言具有重要意義。網絡文學創作應當全面進化,摒棄精英式寫作方式。我們無需過分追求趕超文學大師的作品,這樣的目標在短期間毫無意義。我們應關注中等水平的網絡小說創作,這是大模型智能寫作的方向。一旦達成中等水平的網絡小說創作,更高的目標才有具有實現的可能性。
經過兩三年的努力,我們將初步見到成效。屆時,我們將建立一個交互性的智能寫作平臺。在這段時期內,中國的大模型將取得長足的進步,不斷追趕國際大模型的水準。即使無法完全達到這一目標,大模型水平的提升也將為我們提供一個堅實的基礎,支持智能寫作實驗的發展。我們對于在這個平臺上實現高水平寫作充滿信心。到那時,基于這個平臺的作品將遠超現在的“中二”水平,達到中等層次的網絡作家水平。
展望未來,大型語言模型有望依靠自身的力量完成長文本的生成,甚至能夠根據需要創作長篇小說。但這需要將我們開發的智能平臺模型納入大型語言模型,使其成為其中的一個“細胞”,才可能完成進一步的智慧化。
我們已經步入智能社會,回避這一事實沒有任何意義。在發展中不斷調整工作方案才是根本。只有學會與人工智能共處共融,我們才能走向不可知的未來。◇◆
注釋
①《文學計算工作坊通訊稿》,https://si-mian.ecnu.edu.cn/7f/0d/c19254a360205/page.htm。
②《數字人文與文學計算工作坊及第二次文學計算工作會議通訊》,https://si-mian. ecnu. edu. cn / 16 / f3 / c19254a399091/page.htm。
③參見凱文·凱利:《失控:全人類的最終命運和結局》,張行舟、陳新武、王欽等譯,電子工業出版社,2016,第144-147頁。
④小說文本見微信公眾號“后人類文化研究院”。
⑤《AI創作的百萬字小說能打敗網文大神嗎?》,https://www.thepaper.cn/newsDetail_forward_26722585。