模型:
bert-base-chinese
该模型已经针对中文进行了预训练,采用了与原始BERT论文中的字片段相互独立的训练和随机输入填充。
此模型可用于填充-掩码语言建模。
内容警告:读者应该注意,本节内容包含令人不安、冒犯和可能传播历史和当前刻板印象的内容。
大量研究已经探讨了语言模型的偏见和公平性问题(参见,例如, Sheng et al. (2021) 和 Bender et al. (2021) )。
[需要更多信息]
[需要更多信息]
from transformers import AutoTokenizer, AutoModelForMaskedLM tokenizer = AutoTokenizer.from_pretrained("bert-base-chinese") model = AutoModelForMaskedLM.from_pretrained("bert-base-chinese")