为 Alexa 此类语音助手添加对一种新语言的支持不是一件容易的事情,但据 Venturebeat 报道,亚马逊的研究人员声称,他们已经开发出一种方法,可以加快和简化这一过程。在一篇新发表的论文(《跨语言迁移学习用于口语理解》)和附带的博客文章中,他们描述了一种技术,这种技术可以用最少的训练数据将用一种语言训练的机器学习模型应用于另一种语言。

该方法的核心是迁移学习(尤其是跨语言迁移学习)。Alexa AI 自然理解科学家 Quynh Do 和 Judith Gaspers 介绍说,在实验中,它将新语言的数据需求降低了 50%。

据他们解释,口语理解(SLU)系统通常包括两个子任务——意图分类和插槽标记——其中意图是用户想要执行的任务,插槽表示意图所作用的实体。(例如,语音命令“Alexa,播放 Panic 的《High Hopes》!在迪斯科舞厅”,意图是播放音乐,Panic 和《High Hopes》、迪斯科舞厅是“填上歌曲名和艺人名、位置”。)

Do 和 Gaspers 注意到,训练意图和槽分类共同提高了性能,因此他们和同事探索了六种不同的联合训练 AI 的系统。在将它们的表现与一组开源的英语 SLU 示例基准数据集进行比较后,该团队确定有三个系统在这两个分类任务上都优于其前辈的表现。

接下来,对单词嵌入(与多维空间中的点相对应的一系列固定长度坐标)和字符嵌入(反映单词及其组成部分含义的簇)进行了实验。他们使用源语言(英语)中的数据来提高目标语言(德语)中的 SLU 性能,主要是通过对 SLU 模型进行预培训并对目标数据集进行微调。

在一次大规模测试中,他们创建了一个语料库,其中包括从英语 Alexa SLU 系统中采集的 100 万个短语,以及来自德国 Alexa SLU 系统的 10,000 和 20,000 个短语的随机样本。开发集包括来自德国系统的 2,000 个话语。

通过训练双语输入嵌入对两种语言中语义相似的单词进行分组,研究人员发现,一个源数据为 100 万个英语单词、目标数据为 1 万个德语单词的迁移模型比一个训练了 2 万个德语单词的单语模型更准确地分类了意图。通过 10,000 和 20,000 个德语数据集,迁移模型的插槽分类得分比仅用德语发音训练的单语模型提高了 4%。

“尽管 LSTM 模型在英语测试集中表现最好,但这并不能保证它会产生最佳的迁移学习效果。”他们写道,“在正在进行的工作中,我们也在把其他模型转移到德语语境中。”

【数字叙事 黎雾编译】