模型:
KoboldAI/OPT-6.7B-Erebus
这是Shinen原作者Seeker先生制作的第二代版本。完整的数据集包括6个不同的来源,都围绕着"成人"主题。"Erebus"一词来自希腊神话,也被称为"黑暗"。这与Shin'en或"深渊"一致。如有任何问题,请联系KoboldAI社区。 警告:该模型不适合未成年人使用。模型将输出X级别的内容。
数据可以分为六个不同的数据集:
数据集使用[类型:<逗号分隔的类型列表>]进行标记。
您可以直接使用此模型进行文本生成。下面的示例每次运行都会生成不同的序列:
>>> from transformers import pipeline >>> generator = pipeline('text-generation', model='KoboldAI/OPT-6.7B-Erebus') >>> generator("Welcome Captain Janeway, I apologize for the delay.", do_sample=True, min_length=50) [{'generated_text': 'Welcome Captain Janeway, I apologize for the delay."\nIt's all right," Janeway said. "I'm certain that you're doing your best to keep me informed of what\'s going on."'}]
基于已知的NLP技术问题,潜在相关因素包括偏见(性别、职业、种族和宗教)。 警告:该模型具有非常强烈的不适宜工作场所内容偏见!
OPT-6.7B使用OPT-175B许可证,版权所有© Meta Platforms,Inc.。保留所有权利。
@misc{zhang2022opt, title={OPT: Open Pre-trained Transformer Language Models}, author={Susan Zhang and Stephen Roller and Naman Goyal and Mikel Artetxe and Moya Chen and Shuohui Chen and Christopher Dewan and Mona Diab and Xian Li and Xi Victoria Lin and Todor Mihaylov and Myle Ott and Sam Shleifer and Kurt Shuster and Daniel Simig and Punit Singh Koura and Anjali Sridhar and Tianlu Wang and Luke Zettlemoyer}, year={2022}, eprint={2205.01068}, archivePrefix={arXiv}, primaryClass={cs.CL} }