英文

FORK of FLAN-T5 XXL

这是google/flan-t5-xxl的一个fork,实现了一个自定义的handler.py作为使用t5-11b进行单个NVIDIA A10G推断端点的示例。

您可以使用 1-click 部署flan-t5-xxl。由于我们使用的是“量化”版本,我们可以将实例类型切换为“GPU [medium] · 1x Nvidia A10G”。

TL;DR

如果您已经了解T5,FLAN-T5在所有方面都更好。对于相同数量的参数,这些模型已经在1000多个附加任务上进行了微调,还涵盖了更多的语言。正如摘要的前几行所述:

Flan-PaLM 540B在几个基准测试中实现了最先进的性能,例如在五轮MMLU上达到了75.2%。我们还公开发布了Flan-T5的检查点1,即使与更大的模型(如PaLM 62B)相比,它们在几轮少样本性能方面也表现出色。总的来说,指令微调是改善预训练语言模型性能和可用性的一种通用方法。

免责声明:此模型卡片的内容由Hugging Face团队撰写,并且其中的某些内容是从 T5 model card 中粘贴复制的。

Model Details

Model Description

  • Model type: 语言模型
  • Language(s) (NLP): 英语、西班牙语、日语、波斯语、印地语、法语、中文、孟加拉语、古吉拉特语、德语、泰卢固语、意大利语、阿拉伯语、波兰语、泰米尔语、马拉提语、马拉雅拉姆语、奥里亚语、旁遮普语、葡萄牙语、乌尔都语、盖利西亚语、希伯来语、韩语、加泰罗尼亚语、泰语、荷兰语、印度尼西亚语、越南语、保加利亚语、菲律宾语、中央高棉语、老挝语、土耳其语、俄语、克罗地亚语、瑞典语、约鲁巴语、库尔德语、缅甸语、马来语、捷克语、芬兰语、索马里语、他加禄语、斯瓦希里语、僧伽罗语、卡纳达语、壮语、伊博语、科萨语、罗马尼亚语、海地语、爱沙尼亚语、斯洛伐克语、立陶宛语、希腊语、尼泊尔语、阿萨姆语、挪威语
  • License: Apache 2.0
  • Related Models: All FLAN-T5 Checkpoints
  • Original Checkpoints: All Original FLAN-T5 Checkpoints
  • Resources for more information: