东京大学开发机器学习算法,可以防止人工智能偏见

2018年07月17日 由 浅浅 发表 526338 0
东京大学研究人员开发机器学习算法,可强制进行公平约束以防止偏见

机器学习正在改变现代生活,但机器学习面临的问题之一是人为偏差。

我们很容易假设使用算法进行决策可以消除人为偏差。但研究人员发现机器学习可以在某些情况下产生不公平的决定。

例如雇用某人从事某项工作,如果算法的数据表明男性比女性更有生产力,那么机器很可能“学习”这种差异并且有利于男性候选人而不是女性候选人,而忽略了输入数据的偏见。管理人员可能无法发现机器的歧视,认为自动决策本质上是中立的,导致不公平的招聘行为。

在第35届机器学习会议论文集上发表的新论文中,SFI博士后研究员Hajime Shimao和东京大学研究员Junpei Komiyama提供了一种确保机器学习公平性的方法。他们设计了一种算法,强制公平约束,以防止偏见。

“比如黑人和白人的信用卡批准率差异不能超过20%。通过这种约束,我们的算法可以给出满足约束的最佳预测,”Shimao表示,“如果你想要20%的差异,请告诉我们的机器,我们的机器可以满足这个限制。”

Komiyama补充说,这种精确校准约束的能力使公司能够确保遵守联邦的不歧视法律。此算法能够严格控制法律所要求的公平程度。

Shimao和Komiyama在研究中指出,纠正偏见涉及权衡。因为约束可以影响机器读取数据的其他方面,它可能会牺牲一些机器的预测能力。

Shimao表示,他希望企业能够使用该算法来帮助消除可能潜藏在机器学习计划中的歧视。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消