幾年前的這個月,俄勒岡州波特蘭市的藝術(shù)家達(dá)里烏斯·卡茲米(Darius Kazemi)觀看了來自準(zhǔn)小說家的大量推文。十一月是全國小說寫作月,當(dāng)時人們渴望在幾周的時間里寫下50,000個單詞。對于計(jì)算藝術(shù)家Kazemi(其首選媒體是Twitter機(jī)器人)來說,這個想法聽起來有些曲折。他說:“我當(dāng)時以為我永遠(yuǎn)不會那樣做。”“但是,如果一臺計(jì)算機(jī)可以為我做,我會試一試。”
Kazemi發(fā)出了這樣的推文,一群志趣相投的藝術(shù)家迅速投入了行動。他們在Github上建立了一個倉庫,人們可以在其中發(fā)布他們的項(xiàng)目并交換想法和工具,幾十個人開始編寫可以編寫文本的代碼。Kazemi通常不制作一部小說般的作品。他喜歡140個字符的精髓。所以他從那里開始。他編寫了一個程序,該程序抓取了適合特定模板的推文-一些(通常是子推文)提出了問題,以及Twitterverse中其他地方的合理答案。它進(jìn)行了一些有趣的對話,但并不滿足要求。因此,在很大程度上,他讓程序從在線夢想日記中抓取了條目,并將它們穿插在對話之間,仿佛角色正陷入一種賦格狀態(tài)。他把它叫做“青少年在房子周圍游蕩”。首創(chuàng)“新穎”作品。
自首個NaNoGenMo(即“生成”代替“文字”)已經(jīng)過去了6年。Kazemi說,精神上并沒有太大改變,盡管這次活動已經(jīng)遠(yuǎn)遠(yuǎn)超出了他的朋友圈。Github倉庫包含數(shù)百個項(xiàng)目。“小說”的定義很松散。一些參與者為經(jīng)典的敘事而罷工,這是一個凝聚力,人類可讀的故事,將形式結(jié)構(gòu)硬編碼到了他們的程序中。大多數(shù)不這樣做。古典小說通過算法轉(zhuǎn)化為超現(xiàn)實(shí)主義的模仿。Wiki文章和推文按情感進(jìn)行匯總和排列,并以奇怪的組合方式進(jìn)行混搭。有些人嘗試視覺藝術(shù)。至少會有一個人不可避免地對“喵,喵,喵...”進(jìn)行50,000次以上的變體。
但是改變的是工具。經(jīng)過數(shù)十億個單詞訓(xùn)練的新型機(jī)器學(xué)習(xí)模型使計(jì)算機(jī)能夠生成聽起來比Kazemi起步時更像人類的文本。訓(xùn)練模型以遵循語言的統(tǒng)計(jì)模式,學(xué)習(xí)語法的基本結(jié)構(gòu)。即使它們沒有故意的含義,它們也會生成完全可讀(至少在語法上)的句子甚至段落。本月初,OpenAI發(fā)布了GPT-2(最先進(jìn)的此類模型)供公眾使用。您甚至可以微調(diào)系統(tǒng),以產(chǎn)生特定的風(fēng)格-喬治詩,紐約客的文章,俄羅斯的錯誤信息-導(dǎo)致各種有趣的變形。
GPT-2不能寫小說。如果您正在考慮使用奧斯丁或弗朗岑,甚至不會是外表。在丟失線程之前,它幾乎不能說出一個句子。但是,它仍然被證明是今年迄今為止啟動的80多個NaNoGenMo項(xiàng)目中的一種流行選擇。從紐約到洛杉磯六個小時的飛行中,有一個人寫了一本詩集。(該項(xiàng)目還強(qiáng)調(diào)了訓(xùn)練此類語言模型所涉及的巨大碳足跡。)Janelle Shane是一位以尖端AI的創(chuàng)造性實(shí)驗(yàn)而聞名的程序員,在推文中談到了所遇到的挑戰(zhàn)。一些GPT-2句子的技巧如此精巧,以至于她想知道它們是否被竊,直接從訓(xùn)練數(shù)據(jù)集中剔除。否則,計(jì)算機(jī)通常會進(jìn)入沉悶的重復(fù)或“無法理解的超現(xiàn)實(shí)主義”的境界。
她寫道:“無論您為小說付出多大的努力,至少在AI掙扎更多的事實(shí)上,您都可以放心。”
紐約大學(xué)教授計(jì)算創(chuàng)造力的艾里森·帕里什(Allison Parrish)說:“使文本具有逼真的外觀是一個有趣的技巧。”她說,但從美學(xué)的角度來看,GPT-2似乎沒有比老式機(jī)器學(xué)習(xí)技術(shù)更多的話了,甚至還有自1940年代克勞德·香農(nóng)首次宣布語言以來就一直用于文本預(yù)測的馬爾可夫鏈。是信息。從那以后,藝術(shù)家一直在使用這些工具來進(jìn)行斷言,Parrish說:“語言不過是統(tǒng)計(jì)而已。”