英文

OpenCALM-Small

模型描述

OpenCALM是由CyberAgent开发的一套仅解码器的预训练日语语言模型套件。

使用方法

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("cyberagent/open-calm-small", device_map="auto", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("cyberagent/open-calm-small")

inputs = tokenizer("AIによって私達の暮らしは、", return_tensors="pt").to(model.device)
with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=64,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        repetition_penalty=1.05,
        pad_token_id=tokenizer.pad_token_id,
    )
    
output = tokenizer.decode(tokens[0], skip_special_tokens=True)
print(output)

模型详情

Model Params Layers Dim Heads Dev ppl
1232321 160M 12 768 12 19.7
1233321 400M 24 1024 16 13.8
1234321 830M 24 1536 16 11.3
1235321 1.4B 24 2048 16 10.3
1236321 2.7B 32 2560 32 9.7
1237321 6.8B 32 4096 32 8.2
  • 开发者 : CyberAgent, Inc.
  • 模型类型 : 基于Transformer的语言模型
  • 语言 : 日语
  • 库 : GPT-NeoX
  • 许可证 : OpenCALM根据Creative Commons Attribution-ShareAlike 4.0 International License( CC BY-SA 4.0 )许可。在使用该模型时,请适当给予CyberAgent适当的信用。
    • 示例(en):此模型是CyberAgent开发的OpenCALM-XX的微调版本。原始模型根据CC BY-SA 4.0许可证发布,此模型也是根据同一CC BY-SA 4.0许可证发布的。有关更多信息,请访问: https://creativecommons.org/licenses/by-sa/4.0/
    • 示例(ja):本モデルは、株式会社サイバーエージェントによるOpenCALM-XXをファインチューニングしたものです。元のモデルはCC BY-SA 4.0ライセンスのもとで公開されており、本モデルも同じくCC BY-SA 4.0ライセンスで公開します。詳しくはこちらをご覧ください: https://creativecommons.org/licenses/by-sa/4.0/

训练数据集

  • 维基百科(日语)
  • Common Crawl(日语)

作者

Ryosuke Ishigami

引用

@software{gpt-neox-library,
  title = {{GPT-NeoX: Large Scale Autoregressive Language Modeling in PyTorch}},
  author = {Andonian, Alex and Anthony, Quentin and Biderman, Stella and Black, Sid and Gali, Preetham and Gao, Leo and Hallahan, Eric and Levy-Kramer, Josh and Leahy, Connor and Nestler, Lucas and Parker, Kip and Pieler, Michael and Purohit, Shivanshu and Songz, Tri and Phil, Wang and Weinbach, Samuel},
  url = {https://www.github.com/eleutherai/gpt-neox},
  doi = {10.5281/zenodo.5879544},
  month = {8},
  year = {2021},
  version = {0.0.1},
}