在《审判》中,卡夫卡讲述了一个个人遭遇冷漠的机构的荒诞故事。剑桥大学 Leverhulme 智能未来中心的执行主任 Stephen Cave 表示,人工智能研究应从卡夫卡的寓言中得到警示,以防止 AI 系统成为约瑟夫·K 的悲剧的制造者。他呼吁在塑造人工智能社会的未来方面,集纳不同的声音,以确保 AI 不仅使未来更有效率,而且更合乎道德。

想象这样一个系统,它做出的决定对一个人的前途有着巨大的影响——甚至是生死抉择。想象一下,这个系统是复杂而不透明的:它将人们分为赢家和输家,但它所依据的标准从未明确过。被评估者不知道系统收集了关于他们的什么数据,也不知道与他们的数据进行比较的是什么东西。没有人愿意为系统的决策负责——每个人都声称在履行自己类似齿轮的功能。

这就是卡夫卡在 1915 年的小说《审判》中给我们的启示。在这本书中,卡夫卡讲述了一个个人遭遇冷漠的官僚机构的荒诞故事。主人公约瑟夫·K 不知道他为什么被捕,也不知道对他不利的证据是什么;没有人愿意为这个决定负责,也没有人愿意向他解释这个制度是如何运作的。故事以约瑟夫·K 彻底失败、听任命运摆布而告终。

快进 100 年,人工智能和数据驱动的计算机系统经常被批评者以类似的方式描述:日益重要,但不透明和不负责任。这不是巧合。约瑟夫·K 的审判与人工智能提出的道德和政治问题有直接联系。与炒作相去甚远,这项技术在过去几年似乎还没有完全成型。正如历史学家约翰尼·佩恩(Jonnie Penn)最近指出的那样,它有着悠久的历史,与国家和企业权力紧密相连。人工智能系统的开发主要是为了促进其资助者(政府、军方和大企业)的利益。

最重要的是,这些系统试图实现自动化的决策模型直接取自这些官僚机构。两位伟大的机器智能先驱,阿兰·图灵和约翰·冯·诺伊曼,都是在二战的严酷考验中开发出他们的原型机的。在冯·诺伊曼的监督下,1946 年第一台通用计算机 Eniac 的第一个任务,就是运行氢弹的计算。

换句话说,人工智能的“智能”不是人类个体的智力,不是作曲家、护工或医生——它是官僚机构的系统智能,处理关于人们生活的大量数据,然后将人们分类、分拣,并将人们放在适当的位置。人工智能的问题类似于卡夫卡式的官僚机构的问题,因为它们是卡夫卡式的机构的产物。约瑟夫·k 会立刻辨识出我们这个时代“电脑说不”的文化特征。

当然,人工智能和相关技术有无数种方式可以用来增强人们的能力:例如,为更多的人提供更好的医疗服务,并提供从数字个人助理到定制在线学习等许多其他服务的途径。

但与此同时,人工智能也冒着使不公正永久化的风险,因为尽管它们是最新、最耀眼的技术,但它们也体现了过去的偏见——还原主义系统思维和制度偏见。默认情况下,这些卡夫卡式系统将延续现有形式的歧视,甚至会加剧它——一个典型的例子是亚马逊的招聘算法,该算法从以前的记录中了解到公司通常录用的是什么类型的人,并在此基础上降级新的申请人的申请,如果其简历表明申请人是女性的话。

因此,有益利用人工智能的一个关键步骤是确保其开发和部署过程中涉及不同的声音。这意味着要包括那些被排除在人工智能产生的权力体系之外的人,比如女性;或者是曾被殖民的国家的人,比如许多发展中国家和发达国家的一些社区;或者是受害者,比如穷人或残疾人。

这方面的挑战是巨大的。世界经济论坛去年 12 月发布的一份报告得出结论称,全球人工智能专业人士中只有 22%是女性。有色人种的处境同样艰难:上个月,100 多名研究人员前往加拿大参加 NeurIPS(人工智能最重要的会议之一)的签证被拒签。由于许多人来自非洲,这对旨在增加该领域代表性的会议产生了特别的影响。

但也有好消息。得益于研究活动团体,如 AI Now Institute 和算法正义联盟(Algorithmic Justice League)的努力,让边缘化团体参与人工智能研究的重要性正逐渐得到认可。在英国,新成立的 Ada Lovelace Institute 的三个核心目标之一是,在塑造人工智能社会的未来方面,“集纳不同的声音”。

那些在历史上被权力体系挫败过的人,比如卡夫卡——一位生活在布拉格的讲德语的犹太人——认识到了他们的不透明、武断和不负责任。因此,包括这些声音将确保人工智能不仅使未来更有效率,而且更合乎道德。

【数字叙事 原作:Stephen Cave;编译:Lighting】