谷歌推出了用于AI图像分类的机器学习模型

2019年10月15日 由 KING 发表 250387 0

人们通常认为,随着AI系统复杂性的增加,它的解释性总是越来越差。研究人员已经开始尝试用Facebook的Captum之类的库解决这一问题,该库解释了神经网络是如何使用深度学习框架PyTorch、IBM的AI Explainability 360工具包、Microsoft的InterpretML做出的决定。为了使AI的决定更加透明,来自Google和Stanford的团队最近研究了一种机器学习模型——基于概念自动解释(ACE),它可以自动提取出具有意义的视觉概念。


正如研究人员在其论文中解释的那样,大多数机器学习解释方法都会更改各个特征(例如,像素,超像素,词向量),以近似每个特征对目标模型的重要性。这是一种有缺陷的方法,因为即使输入的最小数值,也很容易受到攻击。相比之下,ACE在提取概念并确定每个概念的重要性之前,会通过经过训练的分类器和一组图像作为输入来识别更高级别的概念。具体来说,ACE会把多种分辨率的图像进行分割,以获取对象纹理,对象部分和对象的级别,然后再将相似的片段分为同一概念的示例组并输出其中最重要的部分。


为了测试ACE的鲁棒性,该团队使用了Google的Inception-V3图像分类器模型,该模型在ImageNet数据集上进行了训练,并从数据集中的1,000个类别中选择了100个类别的子集来应用ACE。他们注意到标记为重要的概念倾向于遵循人类的直觉,例如,观察警车时警徽比地面上的沥青更为重要。但是,情况并非总是如此。在观察篮球图像时最重要概念是球员的球衣而不是篮球。研究人员承认,ACE绝不是完美的,它难以有效地提取异常复杂的概念。但是他们相信,它提供的对模型学习关联的见解可能会促进机器学习更安全使用。


研究人员在论文中写道:“我们通过实验验证了模型意义和一致性,并进一步证实了它们确实携带了信号进行预测。我们创造的自动将输入功能分组为高级概念的方法非常实用。当这些有意义的概念作为连贯的示例出现,对于正确预测图像中存在的元素非常重要。”

欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消