模型:
google/t5-v1_1-base
Google's T5 版本 1.1
T5 Version 1.1 相对于原始的 T5 模型,包括以下改进- 前馈隐藏层采用 GEGLU 激活,而不是 ReLU - 参见 here 。
预训练中关闭了 Dropout(质量优势)。在微调期间应重新启用 Dropout。
仅在 C4 上进行预训练,没有混合下游任务。
嵌入层和分类器层之间无参数共享。
"xl" 和 "xxl" 取代了 "3B" 和 "11B"。模型结构有些不同- 更大的 d_model 和更小的 num_heads 和 d_ff。
注意:T5 版本 1.1 仅在 C4 上进行了预训练,不包括任何监督训练。因此,在将其用于下游任务之前,必须对该模型进行微调。预训练数据集: C4
其他社区检查点: here
论文: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
作者:Colin Raffel,Noam Shazeer,Adam Roberts,Katherine Lee,Sharan Narang,Michael Matena,Yanqi Zhou,Wei Li,Peter J. Liu
迁移学习是指将模型首先在数据丰富的任务上进行预训练,然后再在下游任务上进行微调的技术,在自然语言处理(NLP)中已经成为一种强大的技术。迁移学习的有效性产生了多种方法、方法论和实践。在本文中,我们通过引入一个统一的框架,将每个语言问题转化为文本到文本的格式,探索了NLP迁移学习技术的领域。我们的系统研究比较了预训练目标、架构、无标签数据集、迁移方法和其他因素在数十个语言理解任务上的表现。通过将我们的探索洞察与规模和我们的新的“巨大干净爬行语料库”相结合,我们在许多涵盖摘要、问答、文本分类等多个基准测试上实现了最先进的结果。为了促进未来的迁移学习工作,我们发布了我们的数据集、预训练模型和代码。