模型:
facebook/nllb-200-distilled-600M
这是 NLLB-200 的压缩 600M 变体的模型卡。
这是特定检查点的 metrics 信息。
• 模型性能指标:NLLB-200 模型使用 BLEU、spBLEU 和 chrF++ 等被机器翻译社区广泛采用的指标进行评估。此外,我们还使用了 XSTS 协议进行人工评估,并测量了生成翻译的毒性。
• 我们使用了来自各种来源的平行多语言数据来训练模型。有关数据选择和构建过程的详细报告见论文第5节。我们还使用了从 Common Crawl 构建的单语数据。更多细节请参见第5.2节。
• 在这项工作中,我们采取了一种反思的技术开发方法,以确保我们优先考虑人类用户,并减少可能转移到他们身上的风险。虽然我们在整篇文章中反思了道德考虑,但以下是一些需要强调的附加要点。首先,我们选择研究的许多语言都是低资源语言,特别注重非洲语言。虽然优质的翻译可以改善这些社区中的教育和信息获取,但这种访问也可能使具有较低数字素养水平的群体更容易受到错误信息或网络诈骗的影响。后一种情况可能发生在恶意行为者将我们的工作用于不正当活动的情况下,我们认为这是一种无意的用途示例。关于数据获取,用于模型开发的训练数据是从网络上的各种公开可用来源中挖掘的。虽然我们在数据清理上投入了大量精力,但个人身份信息可能无法完全消除。最后,尽管我们已尽力优化翻译质量,但模型产生的错误翻译可能仍然存在。尽管可能性很低,但这可能对那些依赖这些翻译做出重要决策的人产生不利影响(特别是与健康和安全有关的决策)。
• 我们的模型在维基媒体领域进行了测试,并在 NLLB-MD 中的其他领域上进行了有限的调查。此外,支持的语言可能具有我们的模型没有捕捉到的变异。用户应进行适当的评估。
• 二氧化碳(CO2e)估计见第8.8节。