当前关于人工智能的描述常常是科幻式的,这虽然这很有趣,但并没有真正告诉公众 AI 能做什么,不能做什么。英国皇家学会最近发表的一篇论文讨论了这种叙事所带来的问题,并提出了改进建议。

论文写道:“无论是虚构还是非虚构叙事,都聚焦于一些问题,这些问题要么是当代人工智能研究的一个非常小的子集,要么是距离成为技术现实还有几十年甚至几百年的距离。”论文作者认为,这种叙事与技术现实之间的脱节正在危害人工智能的发展。

首先,乌托邦式的幻想助长了技术不可能满足的炒作泡沫。这种泡沫不完全是评论员的错,也是业内许多希望夸大自己技术能力的人的错。这可能具有破坏性,因为当现实与宣传不符时,它可能损害公众对该技术的信心。

其次,源于《终结者》和《2001:太空漫游》等科幻电影的反乌托邦噩梦的虚假担忧,也可能造成巨大的危害。这种叙事形式与炒作驱动的叙事形式有一些相似之处,因为两者都过于相信人工智能能做什么。更重要的是,它们还会分散我们的注意力,使我们无法讨论那些确实需要讨论的问题。

“涉及重大的社会和经济问题,例如工作的未来和财富的分配,公共辩论必须有充分根据。” 论文继续写道,“需要洞悉新形式的商业或社交网络所带来的破坏性潜力和机会,以及关注其对特定任务或工作的直接影响。”

那么,我们如何来改善这种状况呢?理解为什么会出现扭曲的叙述将起着关键作用。除此以外,该论文也为从业者提出了一些建议:

1、从以前对新兴技术的讨论中吸取教训,使话语能够反映不同类型的技术和不同时期的不同程度的信心或不确定性。

2、重塑人工智能叙事,以囊括更广泛的类比,这些类比几乎总是围绕乌托邦和反乌托邦幻想的极端展开。如果这些叙事能包含社会和文化多样性,那就更好了。

3、构建空间,以支持关于人工智能的知情对话。比如,英国皇家学会定期举办名为“你和人工智能”的公开系列讲座。

这不是一份详尽的清单,但有启发性意义。论文不仅吸引了人工智能领域的从业者,也吸引了其他领域的从业者,包括媒体从业者。

“试图控制公众叙事既无法实现,也不可取,但目前的局限性至少可以通过学习其他颠覆性技术的叙事,通过传达不确定性来部分解决。”论文总结道。

【数字叙事 耳闻】