DataRobot:人工智能道德规范,通过遵循伦理实践来建立信任(二)
2019年08月15日 由 Dolores 发表
740280
0
在关于人工智能伦理主题的前一篇博客文章中,我们介绍了人工智能(AI)在提高各行业企业的速度,准确性和运营方面所做的承诺。
凭借人工智能的潜力,企业在推进人工智能项目方面不应该犹豫不决,但他们担心犯错会损害公司的声誉。
通过遵循围绕AI的道德规范的四个主要原则,可以避免这些陷阱。在第一部分中,我们介绍了前两个主要原则。在本博客中,我们将介绍原则三和四,即披露和治理。
- 原则1:道德目的
- 原则2:公平
- 原则3:披露
- 原则4:治理
原则3:披露
道德的四个基本原则之一是尊重自主。这意味着尊重他人的自主权,尊重他人对自己生活的决定。将此应用于人工智能道德,我们有责任向利益相关者披露他们与人工智能的互动,以便他们做出明智的决策。
每当AI的决定对人们的生活产生重大影响时,它们应该有可能以人性化的语言和适合该人的知识和专业知识的水平,要求对AI的决策过程进行适当的解释。
在某些监管领域,这是一项法律要求,例如欧盟的一般数据保护条例(GDPR)中的解释权,以及美国公平信用报告法(FCRA)中的不利行动披露要求。
原则4:管理
组织对人工智能的管理是指其确保其人工智能系统安全,可靠和健全的责任,并确保采用适当的流程来确保这些人工智能系统的责任和问责制。
与任何其他技术一样,AI可用于道德或不道德的目的,AI可以是安全的或危险的。由于AI失败可能导致负面结果,因此有责任管理认可机构并应用高标准的风险管理。
人类必须对他们设计和部署的AI负责并负责。在一般知识,常识,背景和道德价值方面,人类相对于计算机的比较优势意味着人类和AI的组合将比AI本身提供更好的结果。
有关如何实施有道德的AI实践的完整原则列表,请下载白皮书AI Ethics。文中还介绍了如何制定适用于所有项目的AI道德声明,以及DataRobot的自动化机器学习平台如何成为实施有道德的AI的有价值工具。
AI Ethics:
www.datarobot.com/resource/ai-ethics
第一部分:
DataRobot:人工智能道德规范,通过遵循伦理实践来建立信任(一)