一种检验人工智能是否有自我意识的方法

在你醒着的每一刻,甚至做梦的时候,你都有一种独特的内在感觉,那就是“你”。“当你看到日出的温暖色调,闻到早晨咖啡的香气,或者仔细思考一个新想法时,你就有了意识体验。”但人工智能(AI)有体验吗?就像电视剧《西部世界》(Westworld)和《人类》(Humans)中描绘的一些机器人,或者是标志性的电影《银翼杀手》(Blade Runner)中的人工智能?

这个问题并不牵强。机器人目前正被开发应用于诸多领域,比如在核反应堆内部工作,照顾老人,甚至写诗、作曲和绘画。随着人工智能变得越来越复杂,预计将在未来几十年内取代许多人类工作。所以我们必须思考这样一个问题:人工智能能会发展有意识的体验吗?

这个问题之所以紧迫,有几个原因。首先,伦理学家担心强迫人工智能为我们服务是错误的,假如他们能感受到痛苦等各种情绪的话。第二,意识会让 AI 变得不稳定或不可预测,引发安全担忧(或者反过来说,意识会增加 AI 的同理心,基于其自身的主观意识,它可能认识到我们的意识,并以同情心对待我们)。

第三,机器意识可能会影响脑植入技术的可行性,比如 Elon Musk 的新公司 Neuralink 正在开发的技术。如果人工智能不能有意识,那么大脑中负责意识的部分就不能被芯片取代,并将因此引起意识的丧失。同样的道理,一个人不能将他们的大脑上传到电脑上以避免死亡,因为上传的将不是有意识的存在。

此外,如果人工智能最终超越了我们,但又缺乏意识,那么在某种重要意义上,我们人类仍优于机器。但是这个星球上最聪明的生物却不会有意识或有知觉。

关于机器意识有很多疑问。然而,神经科学家远未理解大脑中意识的基础,哲学家也远未完全解释意识的本质。

AI 意识测试

那么我们能做些什么呢?我们认为,我们不需要正式地定义意识,理解它的哲学性质,或知道它的神经基础,以识别 AI 中的意识特征。我们每个人都可以通过反省来掌握意识的本质;我们都能从内心体验到自我和存在。

基于意识的本质特征,我们提出了一种机器意识的测试,即 AI 意识测试(ACT),它考察的是我们所创造的人工智能是否具有基于体验的理解,从内部感知到意识的方式。

正常运作的人类体验是意识最令人信服的迹象之一,尽管这并不经常被注意到,但是几乎每个成年人都能迅速和容易地掌握基于这种感觉意识的概念。这些想法包括思维转换身体(如电影《魔鬼星期五》)、死亡后的生命(包括转世)、心灵离开他们的身体(例如,星体投射或鬼魂)等情景。无论这些情景是否有任何现实,对于一个没有任何意识体验的实体来说,它们都是极其难以理解的。这就像期待一个生来就完全失聪的人去欣赏巴赫的协奏曲一样。

因此,ACT 将通过一系列要求越来越高的自然语言交互挑战人工智能,看看它能多快、多容易地根据我们与意识相关联的内在体验掌握和使用概念和情景。在最基本的层面上,我们可能会简单地问机器,它是否把自己想象成除了物理自我之外的任何东西。

在高级层次上,我们可能会看到它是如何处理上一段提到的想法和情景的。在更高水平上,将评估其推理和讨论诸如“意识的难题”等哲学问题的能力。在最苛刻的层面,我们可能会看到机器是否自己发明和使用这种基于意识的概念,而不依赖于人类的想法和输入。

举个例子:假设我们发现了一个高度复杂的以硅为基础的生命形式的外星人(称为“齐塔人”)。科学家观察它们,思考它们是否是有意识的生物。这个物种的意识有什么令人信服的证据?如果齐塔人对是否有来世表示好奇,或者思考他们是否不仅仅是他们的肉体,那么认为他们有意识是合理的。如果齐塔人走得更远,提出有关意识的哲学问题,就更有说服力。

还有一些非语言行为可以表明齐塔人是有意识的,比如哀悼死者,宗教活动,还有与情绪相关的变色,就像色素细胞在地球上所表现的那样。

斯坦利·库布里克(Stanley Kubrick)的《2001 太空漫游》(2001:A Space Odyssey)中虚构的哈尔 9000 电脑(HAL 9000 AI)的死亡给我们提供了另一个例证。在这里,机器不是一个在大多数科幻小说中描述的有意识的类人机器人;它看起来不像人类,声音也不像(人类确实提供了哈尔的声音,但以一种奇怪的方式)。然而,当它被宇航员停用时,它所说的内容——具体地说,是请求让它免于迫近的“死亡”——给人一种强烈的印象,那就是它是有意识的,对它身上发生的事情有一种主观的体验。

这些指标能够用来识别地球上的 AI 是否有意识吗?这里出现了一个潜在的问题。即使是今天的机器人也可以通过编程来发表关于意识的令人信服的言论,一个真正的超智能机器甚至可以利用神经生理学的信息来推断人类意识的存在。如果复杂而无意识的 AI 的目标是误导我们相信他们是有意识的,那么他们对人类意识的知识可以帮助他们做到这一点。

不过我们可以避开这个问题。在人工智能安全领域,一种被提议的技术涉及“盒子”人工智能——使其无法获得关于世界的信息或在一个限定的领域内活动。我们可以拒绝人工智能接入互联网,甚至禁止它获得任何有关世界的知识,尤其是关于意识体验和神经科学的信息。

有些人怀疑超级智能机器是否能被有效地封闭起来——它会找到一种聪明的出路。然而,我们预计在未来十年很难发展出超级智能。此外,要使 ACT 有效,AI 也不需要长时间停留在盒子中,只要有足够长时间来执行测试即可。

在不同种类 AI 的发展过程中,ACT 也可能对“意识工程”有用,帮助避免以不道德的方式使用意识机器,或在适当的时候创造合成意识。

超越图灵测试

ACT 类似于艾伦·图灵著名的智力测试,因为它完全基于行为——而且,和图灵一样,它可以以一种形式化的问答形式实现。(ACT 可以基于单个人工智能的行为,也可以基于 AI 群体的行为。)

但是 ACT 与图灵测试也有很大的不同。图灵测试旨在绕过任何需要知道机器内部发生的事情;相比之下,ACT 的目的恰恰相反;它试图揭示机器思维的一种微妙而难以捉摸的特性。事实上,一台机器可能会因为人为因素而不能通过图灵测试,但却能通过 ACT 测试,因为它展示了意识的行为指标。

这是我们 ACT 建议的基础。然而,应当指出的是,ACT 的适用性在本质上是有限的。人工智能可能缺乏通过测试的语言或概念能力,就像非人类的动物或婴儿一样,但仍然能够体验。因此,通过 ACT 对人工智能意识来说是充分的证据,但不是必要的证据——尽管这是我们目前能做的最好的事情。这是对机器意识进行客观调查的第一步。

那么,回到“盒子”里的超级 AI——我们拭目以待。它是否能像笛卡尔那样对存在于肉体之外的心灵进行哲学思考?它会像艾萨克·阿西莫夫的机器人那样做梦吗?它能像《银翼杀手》里的瑞秋那样表达情感吗?它能轻易地理解基于我们内在意识体验的人类概念吗,比如灵魂或阿特曼的体验?

人工智能时代将是一个自我反省的时代——无论是我们的,还是他们的。

【数字叙事 原作:Susan Schneider、Edwin L. Turner;编译:维此】

作者简介:

Susan Schneider,博士,美国康涅狄格大学哲学与认知科学教授,纽约 YHouse 公司研究员,耶鲁大学伦理与技术小组成员,普林斯顿高等研究院访问成员。她的著作包括《思想的语言》、《科幻与哲学》和《布莱克威尔与意识的伴侣》(与马克斯·维曼斯合著)。她在电影《过来人》中担任主角。

Edwin L. Turner,博士,普林斯顿大学天体物理学教授,东京大学 Kavli 宇宙物理与数学研究所的科学家。上世纪 70 年代初在麻省理工学院的人工智能实验室的工作经历,使他一直对人工智能研究有浓厚的兴趣。

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related