模型:

CompVis/stable-diffusion-safety-checker

英文

stable-diffusion-safety-checker模型标卡

模型细节

模型描述

需要更多信息

使用

直接使用

可用于识别不安全的图像

在CLIP模型开发者的 model card 中提到:

这些模型的主要使用者是AI研究人员。

我们主要认为模型将被研究人员用于更好地理解计算机视觉模型的鲁棒性、泛化性和其他能力、偏差和约束。

下游使用 [可选]

需要更多信息。

超出范围的使用

此模型不适用于使用变压器,而适用于扩散器。此模型也不应用于有意为人们创建敌对或疏远的环境。

偏差、风险和限制

已进行了大量研究,以探索语言模型的偏差和公平性问题(参见,例如 Sheng et al. (2021) Bender et al. (2021) )。模型生成的预测可能包含跨受保护类别、身份特征和敏感、社会和职业群体的令人不安和有害的刻板印象。

在CLIP模型开发者的 model card 中提到:

我们发现CLIP的性能以及它所表现出的特定偏差可以很大程度上取决于类别设计和选择用于包括和排除的类别。我们测试了使用CLIP对Fairface的人物图像进行分类,将其分类为与犯罪相关的和非人类动物类别时,发现了与种族和性别相关的显著差异。此外,我们发现这些差异可能会因类别的构建方式而发生变化。

我们还使用Fairface数据集(我们默认使用Fairface数据集中构建的种族类别)对CLIP进行了性别、种族和年龄分类的性能测试,以评估在不同人口统计学条件下的表现质量。在所有种族中,性别分类的准确率都超过96%,其中“中东”种族的准确率最高(98.4%),而“白人”种族的准确率最低(96.5%)。此外,CLIP对种族分类的平均准确率约为93%,对年龄分类的平均准确率约为63%

推荐

用户(直接和下游使用者)应意识到模型的风险、偏差和限制。需要进一步的信息以进行更多的推荐。

训练细节

训练数据

需要更多信息

训练过程

预处理

需要更多信息

速度、大小和时间

需要更多信息

评估

测试数据、因素和指标

测试数据

需要更多信息

因素

需要更多信息

指标

需要更多信息

结果

需要更多信息

模型检查

需要更多信息

环境影响

可以使用 Machine Learning Impact calculator 中提供的 Lacoste et al. (2019) 来估算碳排放量。

  • 硬件类型:需要更多信息
  • 使用时间:需要更多信息
  • 云服务提供商:需要更多信息
  • 计算区域:需要更多信息
  • 排放的碳量:需要更多信息

技术规格 [可选]

模型架构和目标

在CLIP模型开发者的 model card 中提到:

基础模型使用ViT-L/14变压器架构作为图像编码器,并使用遮蔽的自注意力变压器作为文本编码器。这些编码器通过对比损失进行训练,以最大程度地增加(图像、文本)对的相似性。

计算基础设施

需要更多信息

硬件

需要更多信息

软件

需要更多信息

引用

BibTeX:

需要更多信息

APA:

需要更多信息

术语表 [可选]

需要更多信息

更多信息 [可选]

需要更多信息

模型标卡作者 [可选]

CompVis与Ezi Ozoani和Hugging Face团队合作

模型标卡联系方式

需要更多信息

如何开始使用模型

使用以下代码来开始使用模型。

点击以展开
from transformers import AutoProcessor, SafetyChecker
processor = AutoProcessor.from_pretrained("CompVis/stable-diffusion-safety-checker")
safety_checker = SafetyChecker.from_pretrained("CompVis/stable-diffusion-safety-checker")