模型:
facebook/nllb-200-distilled-1.3B
这是NLLB-200的蒸馏1.3B变体的模型卡片。
这是那个特定检查点的 metrics 。
• 模型性能指标:NLLB-200模型的评估采用了机器翻译社区广泛采用的BLEU、spBLEU和chrF++指标。此外,我们还采用了XSTS协议进行人工评估,并测量了生成翻译的有害性。
• 我们使用来自各种来源的平行多语言数据来训练模型。有关数据选择和构建过程的详细报告,请参阅论文中的第5节。我们还使用从Common Crawl构建的单语数据。有关更多细节,请参阅第5.2节。
• 在这项工作中,我们采取了一种反思性的技术发展方法,以确保我们优先考虑人类用户,并将可能转移到他们身上的风险最小化。虽然我们在整篇文章中都反思了我们的伦理考虑,但以下是一些要强调的额外观点。首先,本研究选择的许多语言属于低资源语言,特别强调非洲语言。虽然质量翻译可以改善这些社区的教育和信息获取,但这种访问也可能使数字素养水平较低的群体更容易受到信息误导或网络诈骗的伤害。后一种情况可能发生,如果恶意用户将我们的工作用于不正当活动中,我们认为这是一种意外使用的例子。关于数据获取,用于模型开发的训练数据是从互联网上各种公开可用的来源中获取的。尽管我们在数据清理方面投入了大量精力,但个人身份信息可能无法完全消除。最后,尽管我们已经尽力优化翻译质量,但模型产生的误译可能仍然存在。尽管可能性很低,但这可能对那些依赖这些翻译做重要决策(特别是涉及健康和安全的决策)的人产生不利影响。
• 我们的模型已在维基媒体领域进行了测试,并在NLLB-MD中支持其他领域的有限调查。此外,支持的语言可能存在我们的模型未能捕捉到的变化。用户应进行适当的评估。
• 二氧化碳(CO2e)估计报告见第8.8节。