模型:

KoboldAI/OPT-13B-Erebus

语言:

en

其他:

opt

预印本库:

arxiv:2205.01068

许可:

other
英文

OPT 13B - Erebus

模型描述

这是最初由Seether先生制作的Shinen的第二代版本。完整数据集包含6个不同的来源,都与“成人”主题有关。名称“Erebus”来自希腊神话,也被称为“黑暗”。这与Shin'en或“深渊”一致。如有疑问,请联系KoboldAI社区。警告:此模型不适合未成年人使用。模型将输出X级内容。

训练数据

数据可以分为6个不同的数据集:

  • Literotica(所有评分为4.5/5或更高的内容)
  • Sexstories(所有评分为90或更高的内容)
  • Dataset-G(私人X级故事数据集)
  • Doc's Lab(所有故事)
  • Pike Dataset(带有“成人”评级的小说)
  • SoFurry(各种动物的集合)

数据集使用[Genre: <逗号分隔的类型列表>]进行标记。

如何使用

您可以直接使用此模型进行文本生成的流程。每次运行此示例时,将生成一个不同的序列:

>>> from transformers import pipeline
>>> generator = pipeline('text-generation', model='KoboldAI/OPT-13B-Erebus')
>>> generator("Welcome Captain Janeway, I apologize for the delay.", do_sample=True, min_length=50)
[{'generated_text': 'Welcome Captain Janeway, I apologize for the delay."\nIt's all right," Janeway said. "I'm certain that you're doing your best to keep me informed of what\'s going on."'}]

限制和偏见

基于已知的自然语言处理技术问题,潜在的相关因素包括偏见(性别、职业、种族和宗教)。警告:此模型具有非常强烈的不适宜上班族内容偏见!

许可协议

OPT-13B根据OPT-175B许可协议进行许可,版权所有(c)Meta Platforms,Inc.保留所有权利。

BibTeX条目和引用信息

@misc{zhang2022opt,
      title={OPT: Open Pre-trained Transformer Language Models}, 
      author={Susan Zhang and Stephen Roller and Naman Goyal and Mikel Artetxe and Moya Chen and Shuohui Chen and Christopher Dewan and Mona Diab and Xian Li and Xi Victoria Lin and Todor Mihaylov and Myle Ott and Sam Shleifer and Kurt Shuster and Daniel Simig and Punit Singh Koura and Anjali Sridhar and Tianlu Wang and Luke Zettlemoyer},
      year={2022},
      eprint={2205.01068},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}