英文

注意:新版本已发布,请查看最新版本的权重 here 。如果您仍想使用此旧版本,请查看不同版本之间的兼容性和差异 here

注意:无法直接使用此“增量模型”。用户必须将其应用于原始LLaMA权重之上,以获得实际的维库纳权重。请参阅 instructions

维库纳模型卡

模型详情

维库纳是一个通过在从ShareGPT收集的用户共享对话中进行LLaMA微调训练的聊天助手。

  • 开发者: LMSYS
  • 模型类型:基于变压器架构的自回归语言模型。
  • 许可:非商业许可
  • 从模型进行微调: LLaMA

模型来源

使用方式

维库纳的主要用途是对大型语言模型和聊天机器人进行研究。模型的主要预期用户是自然语言处理、机器学习和人工智能领域的研究人员和爱好者。

如何开始使用该模型

命令行界面: https://github.com/lm-sys/FastChat#vicuna-weights 。API(OpenAI API、Huggingface API): https://github.com/lm-sys/FastChat/tree/main#api

训练详情

Vicuna v1.1是通过监督指导微调从LLaMA进行微调的。训练数据约有70,000个从ShareGPT.com收集的对话。有关详细信息,请参阅附录中的“Vicuna模型的训练详情”部分 paper

评估

维库纳使用标准基准、人类偏好以及LLM作为评判进行评估。有关详细信息,请参阅 paper leaderboard

不同版本的维库纳之间的差异

请参阅 vicuna_weights_version.md