模型:
deepset/gbert-base
2020年10月发布的,这是由原始的德语BERT模型制造商(也称为“bert-base-german-cased”)和dbmdz BERT(也称为bert-base-german-dbmdz-cased)合作训练的德语BERT语言模型。在我们的研究中,我们概述了训练模型的步骤,并展示了其优于之前版本的性能。
论文: here 架构:BERT基础版 语言:德语
GermEval18 Coarse: 78.17 GermEval18 Fine: 50.90 GermEval14: 87.98
另请参阅:deepset/gbert-basedeepset/gbert-largedeepset/gelectra-basedeepset/gelectra-largedeepset/gelectra-base-generatordeepset/gelectra-large-generator
Branden Chan: branden.chan [at] deepset.ai Stefan Schweter: stefan [at] schweter.eu Timo Möller: timo.moeller [at] deepset.ai
我们通过开源方式将自然语言处理技术引入到工业领域!我们关注行业特定的语言模型和大规模问答系统。
我们的一些工作包括:
联系我们: Twitter | LinkedIn | Slack | GitHub Discussions | Website
顺便说一句: we're hiring!