机器人会写关于电子羊的小说吗?随着最近一项人工智能研究成果的宣布,我们离完全由机器生成散文的梦想或噩梦似乎又近了一步。这是来自 OpenAI 的创意——一个由 Elon Musk 和其他科技企业家支持的非营利性的实验室狡猾地宣称 GPT2 因过于危险而暂不发布。“由于我们担心这项技术的恶意应用,我们不会发布经过训练的模型。”他们说。机器学习实体会成为信息恐怖主义的新武器吗?还是只会让平庸的中流作家破产?

让我们先退一步。长久以来,人工智能一直是下一个热门话题,人们很容易认为“人工智能”已经存在。事实上并非如此,如果我们所说的“智力”指的是我们在人类同胞身上遇到的东西的话。GPT2 只是使用统计分析的方法来预测接下来会发生什么,这些“智能”是经过大量人工编写的文本训练出来的——40GB 的 Web 页面都是 Reddit 读者推荐的。这种概率方法是谷歌翻译的工作原理,也是 Gmail 自动回复背后的方法(“到时候见。” “好的。”“那么就看你。”“没关系!”)。它可能好得出奇,但它没有蜜蜂那么聪明。

现在,小说家们似乎没有什么好害怕的。乔治·奥威尔的《一九八四》开篇写道:“这是四月的一天,天气晴朗而寒冷,钟敲了十三下。”AI 继续讲述:“我把汽油放进去,钥匙放进去,然后让它跑。我只是想象这一天会是什么样子。一百年以后。2045 年,我在中国农村贫困地区的一所学校当老师。我从中国历史和科学史开始。”

出于许多原因,这相当令人困惑。既然叙述者无法在西雅图找到工作,也不能同时在中国的“某些学校”工作,那么故事应在 1945 年开始,叙述者想象他们未来的教育事业“从现在起一百年”,这是对人的寿命的不合理的乐观期望。然而,即便在 1945 年,他驾驶着一辆可以从里面加油的汽车(“我在我的车里……我把汽油放进去”)并且显然不需要有意识地驾驶(“然后让它跑”)。

人工智能对简·奥斯汀会做得更好吗?《傲慢与偏见》的开头——“这是一个举世公认的真理”,引发了机器的喋喋不休:“当一个国家处于文明状态时,它的领导者的工作在很大程度上是鼓励美德和工业的习惯,以及人民良好秩序的习惯。这听起来确实很像某个 19 世纪的政治吹牛者,即使是一个稍显破碎的版本。

在文学的食物链中,还有什么更值得担忧的吗?我们听说,人工智能机器人能够“写”新闻故事已经有一段时间了。然而,所有这些都是巨大的自动化抄袭机器,它们将人类撰写的新闻故事拼凑在一起。像很多时候一样,被宣传为神奇技术进步的东西,取决于人类的劳作,而人工智能的托词让这些劳作变得无形。如果有人类作家抄袭,就是一个严重的问题。而当人类聚在一起编写一个从事抄袭的计算机程序时,却成了进步。

作为一名新闻记者,坦率地说,GPT2 是相当特朗普式的。作为英国退欧报道的第一线故事——“脱欧公投以来,英国经济已经损失了至少 800 亿英镑”——它继续疯狂地自由联想,并警告称:“未来,英国排名前 10 的大学中,可能会有多达 30%流失。”(“前 10 名中多达 30%”是一种相当拐弯抹角的说法,约为 3 个。)这台机器继续写道,英国退欧将“把我们许多最有才华的人才挤出英国,送到发展中国家的校园”(嗯?),而根据“牛津大学的研究”,替换“海外流失的国际人才”将花费“近 1 万亿美元”。对此,我们只能做出恰当的回应:恐惧工程!值得称道的是,OpenAI 的机器专家承认,它有时容易出现他们所谓的“世界模型故障”,“比如模型有时会写水下发生的火灾”。

制作方宣称这个项目太危险了,不能发布,这是极好的公关宣传,但几乎没有说服力。OpenAI 警告说,这样的代码可能会被用来“生成误导人的新闻文章”,但是并不缺少由为巨魔工厂工作的实际人员编写的虚构新闻。“深度伪造”一词的意义在于,它们是比伪造散文更深层次的伪造,任何人都可以做到。比起电脑笨拙地写出来的虚假信息,更危险的是视觉媒体中真正的“深度造假”。当可以生成与真实文件证据无法区分的任何类型的视频时——例如,一个公众人物能说出他们从未说过的话——那么我们就会陷入一个麻烦的世界。OpenAI 同意这是一个更大的问题,尽管它提出的解决方案相当模糊。为了防止所谓的“恶意行动者”利用这种技术,我们“应该寻求更好的技术和非技术对策”。可以说,这就像同时设计一种生物武器及其解毒剂,而不是一开始就选择不发明它。

对于像 GPT2 这样的纯文本程序来说,也许更为现实的希望,是仅仅作为一种自动化的抄写员,能编出一个沉长乏味的商业报告的初稿——或者,为什么不是关于著名的符号学家与年龄相差一半的年轻女性一起陷入危险的全球阴谋的机场惊悚片呢?毕竟,长期以来,绝望的艺术家们都在尝试以规则为基础的策略来生成难以捉摸的原材料,然后对这些原材料进行编辑和润色。莫扎特的“音乐骰子游戏”使片段结合起来产生无数不同的华尔兹舞曲,而 20 世纪中期音乐的整体系列化作为一种算法方法,试图将作曲家的审美判断转移到数学系统上。最近,布莱恩·伊诺(Brian Eno)在他的专辑《生成音乐 1》中使用了上世纪 90 年代开发的 Koan 软件。

不过,对于严肃的反乌托邦科幻思想家来说,这样一个不温不火的结局将令人失望。自从 Karel Čapek 撰写的《Rossum’s Universal Robots》在 1921 年出版以来,人们想知道我们是否最终会创造一种能够消灭我们的合成生物。特别是,人工智能驱动的机器取代所有人工作的前景,如今已是一个令人兴奋的老生常谈,尽管这种措辞方式有意模糊了机构的概念。我们真正谈论的不是机器人“抢走”工作,而是雇主故意解雇人类员工,用更便宜的机器取代他们。例如,为什么美国会出现一股创建能给高中和大学论文打分的机器人的热潮?大概是为了减少教师的雇佣。毫无疑问,亚马逊一想到能够销售完全由电脑生成的图书(你不需要为算法支付版税)就会兴奋不已,而人工智能制作的有关疫苗的阴谋视频,为 YouTube 带来的利润也相当不错。

我们应该对这种可能性有多担心,取决于我们对文化本质的看法。围绕 GPT2 文本生成器的过度宣传,至少是一个症状,表明我们在一定程度上已经内化了硅谷庸俗的功能主义,根据这种功能主义,一切都只是数据。的确,当你拥有一个庞大的数据处理系统时,一切看起来都像数据。“一切都是数据”的口号让大型科技公司看起来相当不错,因为它们擅长的是数据。文本可以通过计算机进行数学编码和操作,这也是数据,对吧?

但写作不是数据。它是一种表达,意味着你有东西要表达。一个没有知觉的计算机程序没有什么可表达的。可以肯定的是,用大量的程式化垃圾来训练它,它能够重新组合并生成更程式化的垃圾。(GPT2 培训数据库中的主题包括英国退欧、麦莉·赛勒斯和《指环王》。)一切都很好。但是,除非机器人拥有丰富的内心生活,并了解周围的世界,否则它们将无法讲述自己的故事。如果有一天它们能做到这点,我们还能追随它们吗?正如维特根斯坦所言:“如果一头狮子会说话,我们就不会理解它。”作为世界上的狮子与作为世界上的人类是如此不同,以至于可能根本没有相互理解的点。完全有可能的是,如果有一台有意识、会说话的机器,我们也不会理解它。

【数字叙事 原作:Steven Poole;编译:Lighting】