情商(EQ)——能够理解别人的感受或想法,主要是运用肢体语言和语调——对于有些人来说也是困难的。当人类误解他们的同胞时,他们可能会失去友谊、关系、工作。机器人的赌注更高——如果它们的制造者不能教他们同情,它们可能就没有存在的必要。

企业发展公司 Allerin 的创始人兼首席执行官 Naveen Joshi 最近写了篇文章讨论如何用 EQ 改进 AI,使之被社会广泛接受的问题。“即使是最先进的人工智能技术,也缺乏一些必要的因素,如像人类一样的情商和背景信息。”他写道。

像 Alexa 这样的机器人实际上并不了解我们。它们不知道我们的感受,不了解我们在想什么。他们无法理解那些不言而喻的手势和皱眉头。他们甚至缺乏基本的同情心,基本上只是在谈一些琐事和闲聊。

然而目前我们对它的质疑并不明显。当我们和 Alexa 谈话时,我们倾向于将机器人视为另一个人,一个住在小扬声器中的人,与它谈话,听它讲笑话。部分原因是我们未对对机器人的 EQ 有太多想法。对于 AI 来说,有一个“恐怖谷”,面对这个尴尬的差距,我们的头脑弥补了一组算法之间的差异和人性化的东西。我们在精神上弥合了差距,但随着机器人的发展,它们变得更加智慧,表现出更多的情感时,我们就会开始质疑他们——我们将意识到他们不是人类。

“恐怖谷”是用于描述当我们看到人类头像时会发生什么的术语。很难弥合这个差距——头像看起来更人性化,我们开始填补空白的程度更多,直到在某种程度上我们意识到这不是人类。那时事情就会分崩离析。

想想最新的“最终幻想”电影《最终幻想十五》。起初,数字演员看起来像人类是多么令人惊异。然后有轻微的偏差,或面部抽搐,或看起来不正常的眯眼。我从来没有看完过电影,因为最终我不再相信这是真实的,我停止关心这些数字演员。

这将发生在机器人身上。首先,我们将不再将其视为数字创作,并开始在情感连接上与它们联系。但是它们始终是程序上的子程序。在某些时候,我们将停止弥合我们自己和 Alexa 或 Cortana 之间的差距。这时事情将变得有趣,因为 bot 开发人员必须弄清楚如何解决大量的了解用户的问题。你生病了吗?不爽?最近与男朋友分手了?累?如果机器人不知道如何“阅读”,我们不会认为机器人是有价值的。“Alexa,天气怎么样?”现在它工作得很好,但很快我们就会想要更多。

由于“恐怖谷效应”,随着机器人越来越像人类,我们的不信任度也会越来越高,这是 AI 开发人员面临的最大的挑战。人类不能相信没有表现出同情心的事物。这是不可能的。它违背了我们的本性,我们的合作、友谊或任何关系都是建立在信任和同情的关系上的。我们不会越来越多地依赖机器人,除非它试图理解我们并且证明它“知道”我们。

最糟糕的部分?我们不知道何时会发生这种分裂。现在,机器人是无意识的奴才,是我们购买的物品。Google Home 是一个助手,告诉我们 NFL 的分数。但是当我们想要一个机器人在一辆自行车上接过孩子的时候呢?当机器人代替我们面试的时候呢?当我们想要一个关心老人的机器人?人工智能应更好地准备应对复杂的挑战,而不仅仅是报告天气。

作者:JOHN BRANDON
译者:lighting