模型:
t5-small
Text-To-Text Transfer Transformer (T5)的开发人员 write :
通过T5,我们建议将所有NLP任务重新构建为统一的文本对文本格式,其中输入和输出始终为文本字符串,而不像BERT风格的模型那样只能输出类标签或输入的一部分。我们的文本对文本框架允许我们在任何NLP任务上使用相同的模型、损失函数和超参数。
T5-Small是具有6000万参数的检查点。
开发者在 blog post 中写道,该模型:
我们的文本对文本框架允许我们在任何NLP任务上使用相同的模型、损失函数和超参数,包括机器翻译、文档摘要、问答和分类任务(如情感分析)。我们甚至可以通过训练它预测数值的字符串表示而不是数值本身,将T5应用于回归任务。
详见 blog post 和 research paper 以获取更多详细信息。
需要更多信息。
需要更多信息。
需要更多信息。
该模型在 Colossal Clean Crawled Corpus (C4) 上进行了预训练,该数据集是在与T5相同的 research paper 背景下开发和发布的。
该模型在无监督任务(1.)和有监督任务(2.)的多任务混合中进行了预训练。其中使用了以下数据集进行(1.)和(2.):
在他们的 abstract 中,模型开发人员写道:
在本文中,我们通过引入一个统一的框架将每个语言问题转换为文本对文本格式,探索了NLP的迁移学习技术领域。我们的系统性研究在数十个语言理解任务上比较了预训练目标、架构、无标注数据集、迁移方法和其他因素。
引入的框架是T5框架,其中涉及到将论文中研究的方法汇总到一起的训练过程。详见 research paper 以获取更多详细信息。
开发人员在24个任务上对模型进行了评估,详见 research paper 以获取全部细节。
T5-Small的完整结果见 research paper 的第14表。
可以使用在 Lacoste et al. (2019) 中提出的 Machine Learning Impact calculator 来估计碳排放量。
BibTeX:
@article{2020t5, author = {Colin Raffel and Noam Shazeer and Adam Roberts and Katherine Lee and Sharan Narang and Michael Matena and Yanqi Zhou and Wei Li and Peter J. Liu}, title = {Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer}, journal = {Journal of Machine Learning Research}, year = {2020}, volume = {21}, number = {140}, pages = {1-67}, url = {http://jmlr.org/papers/v21/20-074.html} }
APA:
此模型卡由Hugging Face团队撰写。
使用以下代码即可开始使用该模型。
点击扩展
from transformers import T5Tokenizer, T5Model tokenizer = T5Tokenizer.from_pretrained("t5-small") model = T5Model.from_pretrained("t5-small") input_ids = tokenizer( "Studies have been shown that owning a dog is good for you", return_tensors="pt" ).input_ids # Batch size 1 decoder_input_ids = tokenizer("Studies show that", return_tensors="pt").input_ids # Batch size 1 # forward pass outputs = model(input_ids=input_ids, decoder_input_ids=decoder_input_ids) last_hidden_states = outputs.last_hidden_state详细了解。