模型:
philschmid/flan-t5-xxl-sharded-fp16
这是google/flan-t5-xxl的一个fork,实现了一个自定义的handler.py作为使用t5-11b进行单个NVIDIA A10G推断端点的示例。
您可以使用 1-click 部署flan-t5-xxl。由于我们使用的是“量化”版本,我们可以将实例类型切换为“GPU [medium] · 1x Nvidia A10G”。
如果您已经了解T5,FLAN-T5在所有方面都更好。对于相同数量的参数,这些模型已经在1000多个附加任务上进行了微调,还涵盖了更多的语言。正如摘要的前几行所述:
Flan-PaLM 540B在几个基准测试中实现了最先进的性能,例如在五轮MMLU上达到了75.2%。我们还公开发布了Flan-T5的检查点1,即使与更大的模型(如PaLM 62B)相比,它们在几轮少样本性能方面也表现出色。总的来说,指令微调是改善预训练语言模型性能和可用性的一种通用方法。
免责声明:此模型卡片的内容由Hugging Face团队撰写,并且其中的某些内容是从 T5 model card 中粘贴复制的。