DataRobot:人工智能道德规范,通过遵循伦理实践来建立信任(一)
2019年08月05日 由 明知不问 发表
24588
0
随着机器学习和人工智能的发展,似乎每个人都想进入这一领域,人工智能承诺提高准确性、速度、可伸缩性、个性化、一致性和业务各个领域的清晰度。有了这些优势,为什么有些企业在前进的道路上犹豫不决呢?
一方面,企业知道他们需要接受人工智能创新才能保持竞争力。另一方面,他们知道AI可能具有挑战性。大多数人都听过大公司在人工智能方面犯错误的新闻报道,他们担心这可能会发生在他们身上,损害他们的声誉。
在受监管的行业中,存在如何向监管机构和客户解释AI决策的问题。然后是如何与员工互动以便他们能够接受组织变革的挑战。
如何管理AI以确保它遵循你的业务规则和核心价值,同时获得最大的收益?这其中有一个核心,即建立对人工智能的信任。
让我们来看看围绕AI的道德规范的四个主要原则以及它们如何帮助建立对AI的信任。
- 原则1:道德目的
- 原则2:公平
- 原则3:披露
- 原则4:治理
原则1:道德目的
就像人类一样,AI受到不正当的激励,甚至可能比人类更多。因此,你需要仔细选择分配给AI的任务和目标以及历史数据。
在为AI分配任务时,请考虑提出以下问题:人工智能是否解放了你的员工,让他们承担更有成就感的人工任务?你的新人工智能任务是否改善了客户体验?它是否能让你提供更好的产品或扩展你的组织能力?
此外,除了仅考虑对组织内部业务目标的影响之外,还有更多内容。考虑负外部性,即人工智能行为导致的第三方所遭受的成本。特别注意涉及弱势群体的情况,例如残疾人,儿童,少数民族或权力或信息不对称的情况。
原则2:公平
世界上大多数国家都制定了法律,以防止某些形式的歧视,包括种族和民族,性别,残疾,年龄和婚姻状况等各种潜在的歧视。不言而喻,公司需要遵守有关受保护属性的法律。但除此之外,保护某些敏感属性(例如权力或信息不对称的地方)也是一种良好的商业惯例。
如果历史数据包含弱势群体不良结果的例子,那么人工智能将学会复制导致这些不良后果的决策。数据应反映人工智能将与之互动的目标人群的多样性。当一个群体在历史数据中的代表性不足时,也会发生偏见。如果AI没有给出足够的例子,那么就不能期望它们学习如何处理每个群体。
好消息是,对于AI,与人类相比,检测和消除偏见更容易。由于AI每次看到相同数据时的行为方式都相同,因此你可以运行实验和诊断来发现AI偏差。
有关如何实施有道德的AI实践的完整原则列表,请下载白皮书AI Ethics。文中还介绍了如何制定适用于所有项目的AI道德声明,以及DataRobot的自动化机器学习平台如何成为实施有道德的AI的有价值工具。
AI Ethics:
www.datarobot.com/resource/ai-ethics