Apple提出新的多语言机器翻译解决方案

在2023年5月4日发表的一篇研究论文中,Apple的研究人员提出了一种针对多语言机器翻译的解决方案。

当前大多数机器翻译(MT))系统都是以英语为中心的,因此,在两种非英语语言之间翻译时会产生一个称为pivoting的过程,该过程涉及先将一种语言翻译成英语,然后再翻译成目标语言,这反过来会导致所谓的error cascades(错误级联),例如丢失有关性别和形式的重要信息,或增加延迟。

多语言神经机器翻译 (MNMT) 旨在通过减少延迟和避免英语翻译时发生的错误级联来提高非英语语言之间的翻译质量,然而,训练多语言模型并不是一件容易的事,因为添加的语言越多,它们对模型参数的竞争就越多。

为解决这个问题,Apple的研究人员提出了一种新的解决方案,称为Language-Specific Transformer Layers(LSLs)。这种方法增加了每种语言的模型容量,同时允许在不增加推理成本的情况下,在语言之间共享知识。

方案更多具体信息见论文Learning Language-Specific Layers for Multilingual Machine Translation

研究人员在实验中主要专注十种语言,包括英语、德语、西班牙语、法语、意大利语、日语、韩语、葡萄牙语、斯瓦希里语和中文。拟议的方法为高资源语言(如英语和德语)和低资源语言(如韩语或斯瓦希里语)带来了实质性收益。

研究人员强调,使用多语言而不是双语翻译系统可帮助减少以英语为中心而产生的性别偏见。研究人员还表示,与性能相似的基线相比,此次提出的架构可产生更小、训练速度更快的模型,从而提高翻译系统效率。