自然语言处理将帮助人类和AI增强同情心

科技的飞速创新看起来好像它正走在一条不可避免地、有侵略性地解决人类所有最紧迫问题的道路上。

确实,在某些方面,我们取得了很大的进步。在可再生能源、疾病预防和灾难恢复等领域,我们已经有了巨大的进展。但是,涉及到重要的以人为本的挑战——劳动力的多样性、无意识的偏见、员工和客户的满意技术——它还有很长的路要走。

这是因为解决诸如喷气推进或 GPS 之类的技术问题在很大程度上是与数学和物理相关的,计算机(和程序员)擅长于此。但是解决像员工参与这样的以人为中心的问题通常需要共情,而这是出了名的难以编写的。人类是情感动物,尤其是在做决定的时候。首先我们感觉,然后我们运用逻辑来帮助我们的情感反应,最后,我们行动起来。因此,任何帮助人们做出更好的决定而不考虑我们的情绪的尝试都注定要失败。

然而,随着人工智能尤其是自然语言处理(NLP)的最新进展,我们终于拥有了利用人类情感的力量和复杂性的技术工具。这种方法对我们如何设计系统有着重要的影响,而且它也会带来更多的人文主义观点。

编程差异

语言是极其复杂的。从一个人到另一个人,在一个人的经历或环境中,细微的差别可以影响他们表达自己的方式。方言,性别,地点,甚至季节都可以改变我们用来表达相同意思的词语。

人们很善于计算这些细微的差别。然而,对于计算机来说,这是一个巨大的挑战。为了达到接近人类水平的理解,它们需要一套庞大的、丰富的语言训练,跨越无数的人口、经验和背景差异的例子。

要想了解这在现实生活中是如何运作的,只需想想加州的一个十几岁的少年在检查一部新智能手机时使用了“lit”这个词(意思是“激动”),而在马萨诸塞州的一位老人的评论(也许是“屏幕亮度”)中,这个词可能意味着什么。

阅读的字里行间

这是第一次,我们能够教会计算机不仅要理解人们所说的“数词”或“寻找特定的短语”,还要理解“字里行间”和“理解”背后的真正意图和含义。当然,这是人们为了支持同理心而获得的一项重要技能。

常见的“满意度调查”是一个典型的例子,说明了技术在解决人们的感觉方面的局限性。从原则上讲,这是一种理解人们对产品或服务的感觉的强大方式。在实际操作中,它笨拙、不准确,而且早就应该重新制作。

考虑一下在大多数商店收据上发现的调查提示:“请将你的体验用 1 到 10 来表明,并说明原因。把这与一个人如何处理同样的挑战做个比较:简单地问“你对这段经历有什么看法?”然后从使用的语言和整个上下文推断“得分”。虽然我们不需要明确地要求它,但机器确实如此。

看镜子

除了帮助我们更好地理解彼此之外,NLP 还可以更好地理解我们自己。语言是我们思考和感受的最好的窗口。当技术可以开始理解我们的时候(不是它希望我们如何),它可以成为一个真正的合作伙伴,帮助我们发现如何更好地成长和改进。

以经常令人畏惧的绩效评估和各种困扰人的偏见为例。当你问别人,他们是否会在工作中有偏见,即使是下意识的,他们也会极力否认。然而,对绩效评估的研究显示出普遍的、无意识的偏见。

来自我的团队的分析显示,当男性对其他男性进行审查时,他们绝大多数都使用被动语言(“他们可能更主动”)。然而,当这些男性对女性进行审查时,他们经常使用手指指向的语言(“你应该注意细节”)。通过使用数据驱动的技术,我们能够进一步深入了解这种隐藏的偏见,而这种偏见是我们许多人在不知不觉中携带的。幸运的是,人工智能可以让我们走上纠正它的道路。

为了解决世界上最具挑战性的“人的问题”,无论是开发更好的产品,还是在工作环境中更好地理解和做到更公平,我们都需要技术来表现出同情心。当我们利用将心与心结合在一起的创新时,我们就可以进一步发展并提供我们所有人都应该得到的以人为本的解决方案。

作者:Armen Berjikly
编译:Lighting

作者简介:Armen Berjikly 是 Ultimate Software 公司的高级主管,他在人机交互方面的专长推动了该公司人工智能平台的变革和发展。

有问题和想法?与数字诗人讨论、交流,以获得更多的信息、意见。

赞赏
lighting
lighting
笛卡尔的“思”正在进入明斯基的“情感机器”
本文系数字叙事原创(编译)内容,未经授权,不得用于商业目的,非商业转载须注明来源并加回链。

订阅

受欢迎的

相关文章
Related