模型:
xlm-clm-ende-1024
任务:
填充掩码XLM模型是由Guillaume Lample、Alexis Conneau于 Cross-lingual Language Model Pretraining 提出的,xlm-clm-ende-1024是使用英德语进行因果语言建模(CLM)目标(下一个标记预测)进行预训练的转换器。
该模型是一个语言模型,可以用于因果语言建模。
有关此任务和潜在的下游用途的更多信息,请参见 Hugging Face Multilingual Models for Inference 文档。
该模型不应用于有意创造对人们具有敌对或疏远效果的环境。
已经进行了大量的研究来探索语言模型的偏见和公平性问题(例如 Sheng et al. (2021) 和 Bender et al. (2021) )。
用户(直接和下游)应了解模型的风险、偏见和限制。
有关训练数据和训练过程的详细信息,请参见 associated paper 。
有关测试数据、因素和指标的详细信息,请参见 associated paper 。
xlm-clm-ende-1024的结果,请参见 associated paper 的表2。
可以使用 Machine Learning Impact calculator 中提出的方法来估计碳排放量,具体请参见 Lacoste et al. (2019) 。
模型开发人员编写:
我们使用PyTorch(Paszke et al., 2017)实现所有模型,并在64个Volta GPU上进行语言建模任务的训练,以及在8个GPU上进行MT任务的训练。我们使用float16操作加速训练并减少模型的内存使用。
有关详细信息,请参见 associated paper 。
BibTeX:
@article{lample2019cross, title={Cross-lingual language model pretraining}, author={Lample, Guillaume and Conneau, Alexis}, journal={arXiv preprint arXiv:1901.07291}, year={2019} }
APA:
本模型卡片由Hugging Face团队编写。
使用以下代码开始使用模型。
点击展开import torch from transformers import XLMTokenizer, XLMWithLMHeadModel tokenizer = XLMTokenizer.from_pretrained("xlm-clm-ende-1024") model = XLMWithLMHeadModel.from_pretrained("xlm-clm-ende-1024") input_ids = torch.tensor([tokenizer.encode("Wikipedia was used to")]) # batch size of 1 language_id = tokenizer.lang2id["en"] # 0 langs = torch.tensor([language_id] * input_ids.shape[1]) # torch.tensor([0, 0, 0, ..., 0]) # We reshape it to be of size (batch_size, sequence_length) langs = langs.view(1, -1) # is now of shape [1, sequence_length] (we have a batch size of 1) outputs = model(input_ids, langs=langs)