微软正在开发用于识别AI算法偏差的工具
2018年05月28日 由 浅浅 发表
562853
0
微软正在开发一个工具来自动识别一个范围内的不同的AI算法偏差。将自动识别渗入机器学习的不公平现象是非常值得提倡的,它可以帮助企业利用人工智能,而不会无意中歧视某些人。
大型科技公司正在竞相出售可通过云端访问的现成的机器学习技术。随着越来越多的客户使用这些算法来自动执行重要的判断和决策,偏见问题将变得至关重要。而且,由于偏见很容易蔓延到机器学习模型中,因此自动检测不公平性的方法可能会成为AI工具包的重要组成部分。
“像透明度,可理解性和解释这样的东西对于这个领域来说已经足够新了,我们中很少有人有足够的经验了解我们应该寻找可能潜伏在我们模型中的的偏见,” 高级研究员Rich Caruna说,他主要负责偏见检测仪表板。
算法偏差是许多研究人员和技术专家关注的问题。由于算法被用来实现重要决策的自动化,所以其中存在的偏见可能变得自动化,变成更难以发现的风险。
Caruna表示,微软产品将帮助人工智能研究人员捕获更多不公平的事件,尽管不是全部。“当然,我们不能指望完美,总会有一些未被发现或者无法消除的偏见,所以我们会尽我们所能,”他说。
“公司现在可以做的最重要的事情是教育员工,让他们意识到偏差可能出现并以各种方式表现出来,目标就是创建工具使模型更容易理解,偏见更易于检测,”Caruna补充道。
Facebook于5月2日在其年度开发者大会上宣布了自己的工具,用于检测偏见。其工具称为Fairness Flow,它会自动警告某算法是否根据其种族,性别或年龄而对某人作出不公正的判断。
加州大学伯克利分校的教授Bin Yu表示,来自Facebook和微软的工具似乎是朝着正确方向迈出的一步,但可能还远远不够。她建议大公司应该让外部专家审核他们的算法,以证明他们的确没有偏见。