模型:
CompVis/stable-diffusion-safety-checker
需要更多信息
可用于识别不安全的图像
在CLIP模型开发者的 model card 中提到:
这些模型的主要使用者是AI研究人员。
我们主要认为模型将被研究人员用于更好地理解计算机视觉模型的鲁棒性、泛化性和其他能力、偏差和约束。
需要更多信息。
此模型不适用于使用变压器,而适用于扩散器。此模型也不应用于有意为人们创建敌对或疏远的环境。
已进行了大量研究,以探索语言模型的偏差和公平性问题(参见,例如 Sheng et al. (2021) 和 Bender et al. (2021) )。模型生成的预测可能包含跨受保护类别、身份特征和敏感、社会和职业群体的令人不安和有害的刻板印象。
在CLIP模型开发者的 model card 中提到:
我们发现CLIP的性能以及它所表现出的特定偏差可以很大程度上取决于类别设计和选择用于包括和排除的类别。我们测试了使用CLIP对Fairface的人物图像进行分类,将其分类为与犯罪相关的和非人类动物类别时,发现了与种族和性别相关的显著差异。此外,我们发现这些差异可能会因类别的构建方式而发生变化。
我们还使用Fairface数据集(我们默认使用Fairface数据集中构建的种族类别)对CLIP进行了性别、种族和年龄分类的性能测试,以评估在不同人口统计学条件下的表现质量。在所有种族中,性别分类的准确率都超过96%,其中“中东”种族的准确率最高(98.4%),而“白人”种族的准确率最低(96.5%)。此外,CLIP对种族分类的平均准确率约为93%,对年龄分类的平均准确率约为63%
用户(直接和下游使用者)应意识到模型的风险、偏差和限制。需要进一步的信息以进行更多的推荐。
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
可以使用 Machine Learning Impact calculator 中提供的 Lacoste et al. (2019) 来估算碳排放量。
在CLIP模型开发者的 model card 中提到:
基础模型使用ViT-L/14变压器架构作为图像编码器,并使用遮蔽的自注意力变压器作为文本编码器。这些编码器通过对比损失进行训练,以最大程度地增加(图像、文本)对的相似性。
需要更多信息
需要更多信息
需要更多信息
BibTeX:
需要更多信息
APA:
需要更多信息
需要更多信息
需要更多信息
CompVis与Ezi Ozoani和Hugging Face团队合作
需要更多信息
使用以下代码来开始使用模型。
点击以展开from transformers import AutoProcessor, SafetyChecker processor = AutoProcessor.from_pretrained("CompVis/stable-diffusion-safety-checker") safety_checker = SafetyChecker.from_pretrained("CompVis/stable-diffusion-safety-checker")