Facebook推出首个无需依赖英语即可翻译100种语言的AI模型

Facebook AI将推出M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在100种语言中的任意两种之间进行翻译,而无需依赖英语数据。M2M-100总共训练了2200个语言方向,比以前最好的以英语为中心的多语言模型多了10倍。部署M2M-100可以为数十亿人提高翻译质量,特别是那些使用低资源语言的人。

本文最初发布于Facebook官网,由InfoQ中文站翻译并分享。

image

  • Facebook AI将推出M2M-100,这是首个多语言机器翻译(MMT)模型,它可以在100种语言中的任意两种之间进行翻译,而无需依赖英语数据。它是开源的。

  • 在翻译时,比如中译法,大多数以英语为中心的多语言模型都进行中译英和英译法两种训练,因为英语训练数据使用最广泛。我们的模型直接在中译法数据上进行训练,以便更好地保留意义。在评价机器翻译时广泛使用的BLEU度量标准下,它比以英语为中心的系统高出10分。

  • M2M-100总共训练了2200个语言方向,比以前最好的以英语为中心的多语言模型多了10倍。部署M2M-100可以为数十亿人提供更高质量的翻译,特别是那些使用低资源语言的人。

  • 这一里程碑式成就得益于FacebookAI多年来在机器翻译领域开展的基础性工作。在本文中,我们将详细分享我们如何为100种语言构建更多样化的MMT训练数据集和模型。我们还发布了模型、训练和评估设置,以帮助其他研究人员再现和进一步增强多语言模型。

原文链接:【https://www.infoq.cn/article/ROc0YEbtecYhmpwWez0b】。未经作者许可,禁止转载。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章