谷歌机器学习速成课程新增关于公平性训练模块

2018年10月19日 由 浅浅 发表 886314 0
谷歌机器学习速成课程新增关于公平性训练模块今天,谷歌机器学习速成课程新增加了一个关于公平性的训练模块,且即将推出中文版。

随着机器学习的继续采用,道德和公平是非常重要的考虑因素。虽然AI可以“比基于临时规则或人类判断的决策过程更具公平性和更具包容性”,但用于训练这些模型的数据可能存在潜在的偏差。

其他问题涉及确保人工智能在所有情况下都是公平的,而更广泛地说,“没有公平的标准定义”。

负责任地评估机器学习模型需要做的不仅仅是计算损失度量。在将模型投入生产之前,审核训练数据和评估偏差预测至关重要。

这个新增的长达一小时的课程是由谷歌的工程教育和ML公平团队开发的,该模块着眼于可以在训练数据中体现的不同类型的人类偏见。然后,它提供识别它们并评估其影响的策略。

学习目标

  • 了解可能无意中通过ML算法再现的常见的人类偏见。

  • 在训练模型之前,主动探索数据以确定偏差来源。

  • 评估偏差的模型预测。


课程:developers.google.com/machine-learning/crash-course/fairness/video-lecture
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消