几年前的这个月,俄勒冈州波特兰市的艺术家达里乌斯·卡兹米(Darius Kazemi)观看了来自准小说家的大量推文。十一月是全国小说写作月,当时人们渴望在几周的时间里写下50,000个单词。对于计算艺术家Kazemi(其首选媒体是Twitter机器人)来说,这个想法听起来有些曲折。他说:“我当时以为我永远不会那样做。”“但是,如果一台计算机可以为我做,我会试一试。”
Kazemi发出了这样的推文,一群志趣相投的艺术家迅速投入了行动。他们在Github上建立了一个仓库,人们可以在其中发布他们的项目并交换想法和工具,几十个人开始编写可以编写文本的代码。Kazemi通常不制作一部小说般的作品。他喜欢140个字符的精髓。所以他从那里开始。他编写了一个程序,该程序抓取了适合特定模板的推文-一些(通常是子推文)提出了问题,以及Twitterverse中其他地方的合理答案。它进行了一些有趣的对话,但并不满足要求。因此,在很大程度上,他让程序从在线梦想日记中抓取了条目,并将它们穿插在对话之间,仿佛角色正陷入一种赋格状态。他把它叫做“青少年在房子周围游荡”。首创“新颖”作品。
自首个NaNoGenMo(即“生成”代替“文字”)已经过去了6年。Kazemi说,精神上并没有太大改变,尽管这次活动已经远远超出了他的朋友圈。Github仓库包含数百个项目。“小说”的定义很松散。一些参与者为经典的叙事而罢工,这是一个凝聚力,人类可读的故事,将形式结构硬编码到了他们的程序中。大多数不这样做。古典小说通过算法转化为超现实主义的模仿。Wiki文章和推文按情感进行汇总和排列,并以奇怪的组合方式进行混搭。有些人尝试视觉艺术。至少会有一个人不可避免地对“喵,喵,喵...”进行50,000次以上的变体。
但是改变的是工具。经过数十亿个单词训练的新型机器学习模型使计算机能够生成听起来比Kazemi起步时更像人类的文本。训练模型以遵循语言的统计模式,学习语法的基本结构。即使它们没有故意的含义,它们也会生成完全可读(至少在语法上)的句子甚至段落。本月初,OpenAI发布了GPT-2(最先进的此类模型)供公众使用。您甚至可以微调系统,以产生特定的风格-乔治诗,纽约客的文章,俄罗斯的错误信息-导致各种有趣的变形。
GPT-2不能写小说。如果您正在考虑使用奥斯丁或弗朗岑,甚至不会是外表。在丢失线程之前,它几乎不能说出一个句子。但是,它仍然被证明是今年迄今为止启动的80多个NaNoGenMo项目中的一种流行选择。从纽约到洛杉矶六个小时的飞行中,有一个人写了一本诗集。(该项目还强调了训练此类语言模型所涉及的巨大碳足迹。)Janelle Shane是一位以尖端AI的创造性实验而闻名的程序员,在推文中谈到了所遇到的挑战。一些GPT-2句子的技巧如此精巧,以至于她想知道它们是否被窃,直接从训练数据集中剔除。否则,计算机通常会进入沉闷的重复或“无法理解的超现实主义”的境界。
她写道:“无论您为小说付出多大的努力,至少在AI挣扎更多的事实上,您都可以放心。”
纽约大学教授计算创造力的艾里森·帕里什(Allison Parrish)说:“使文本具有逼真的外观是一个有趣的技巧。”她说,但从美学的角度来看,GPT-2似乎没有比老式机器学习技术更多的话了,甚至还有自1940年代克劳德·香农首次宣布语言以来就一直用于文本预测的马尔可夫链。是信息。从那以后,艺术家一直在使用这些工具来进行断言,Parrish说:“语言不过是统计而已。”