以下模型是从 official Google BERT repository 中转换而来的Tensorflow检查点的Pytorch预训练模型。
这是较小的预训练BERT变体之一,与 bert-tiny 、 bert-mini 和 bert-medium 一起使用。它们在研究《好读的学生学得更好:关于预训练紧凑模型的重要性》( arxiv )中被介绍,并在研究《NLI中的泛化:除了简单启发式方法之外还有哪些方法》( arXiv )中移植到了HF。这些模型应该在一个下游任务上进行训练。
如果您使用了该模型,请考虑引用两篇论文:
@misc{bhargava2021generalization,
title={Generalization in NLI: Ways (Not) To Go Beyond Simple Heuristics},
author={Prajjwal Bhargava and Aleksandr Drozd and Anna Rogers},
year={2021},
eprint={2110.01518},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
@article{DBLP:journals/corr/abs-1908-08962,
author = {Iulia Turc and
Ming{-}Wei Chang and
Kenton Lee and
Kristina Toutanova},
title = {Well-Read Students Learn Better: The Impact of Student Initialization
on Knowledge Distillation},
journal = {CoRR},
volume = {abs/1908.08962},
year = {2019},
url = {http://arxiv.org/abs/1908.08962},
eprinttype = {arXiv},
eprint = {1908.08962},
timestamp = {Thu, 29 Aug 2019 16:32:34 +0200},
biburl = {https://dblp.org/rec/journals/corr/abs-1908-08962.bib},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
此模型的配置:
其他要查看的模型:
原始实现和更多信息可以在 this Github repository 中找到。
Twitter: @prajjwal_1