英文

德国BERT基本模型

2020年10月发布的,这是由原始的德语BERT模型制造商(也称为“bert-base-german-cased”)和dbmdz BERT(也称为bert-base-german-dbmdz-cased)合作训练的德语BERT语言模型。在我们的研究中,我们概述了训练模型的步骤,并展示了其优于之前版本的性能。

概述

论文: here 架构:BERT基础版 语言:德语

性能

GermEval18 Coarse: 78.17
GermEval18 Fine:   50.90
GermEval14:        87.98

另请参阅:deepset/gbert-basedeepset/gbert-largedeepset/gelectra-basedeepset/gelectra-largedeepset/gelectra-base-generatordeepset/gelectra-large-generator

作者们

Branden Chan: branden.chan [at] deepset.ai Stefan Schweter: stefan [at] schweter.eu Timo Möller: timo.moeller [at] deepset.ai

关于我们

我们通过开源方式将自然语言处理技术引入到工业领域!我们关注行业特定的语言模型和大规模问答系统。

我们的一些工作包括:

联系我们: Twitter | LinkedIn | Slack | GitHub Discussions | Website

顺便说一句: we're hiring!