三个以人为本的深度学习设计原则
2019年12月17日 由 KING 发表
370924
0
在过去的十年中,许多企业已经开始依赖AI算法来协助做出业务决策,从交付物流、航线规划、风险检测到财务欺诈检测和图像识别。我们正在经历第二次AI浪潮的结束期,然后进入第三次浪潮,即感知AI。在下一波浪潮中,特定的AI子集(称为深度学习)将发挥更加关键的作用。与其他形式的AI一样,深度学习会进行自我调整,并通过使用数据集产生输出来进行学习,然后将其与经验事实进行比较。随着企业开始采用深度学习,领导层必须确保人工神经网络的准确性和精确性,因为调优的网络会影响业务决策并可能损害客户,产品和服务。
当我们进入下一阶段时,企业的关键问题将是如何接受深度学习以推动做出更好的业务决策,同时避免偏见和潜在的不良结果。通过与多个行业的众多客户合作,我们确定了可帮助企业降低实施深度学习计划时的错误率的模式。我们在采用AI的这些早期阶段与企业合作的经验帮助我们为以人为本的深度学习道德方法建立了设计原则,并着重于调整网络的数据。以人为本的设计方法既可以解决短期问题(训练有素的AI网络会产生虚假的解决方案),也可以解决长期的问题,即在进行业务决策时,机器可能会取代人。当我们谈论以人为本的设计时,我们所期望的是为所有个体和团队带来利益,而不是以牺牲少数几个人的利益为代价。我们以人为本的设计原则支持提供和通知数据的目标,以使人们在工作中拥有更多机会。根据我们的经验,企业需要坚持三个关键原则作为任何AI实施的支柱:
透明度
尽可能使您的AI项目的高级实现细节可用于所有相关人员。在这种深度学习倡议的情况下,人们应该了解什么是深度学习,其工作方式(包括如何使用数据集调整算法)以及深度学习如何影响他们的工作。当可能暴露知识产权或其他敏感信息时,企业可能希望包括一个外部利益相关者小组,请记住,如果某些数据集包含敏感信息或存在隐私问题,则可能需要保护这些数据集免于泄露。
可解释性
企业中的员工和外部利益相关者(包括潜在客户)应该能够理解任何深度学习系统如何做出其上下文决策。这里的重点不是解释机器是如何得出结论的(深度学习通常无法在该层次上进行解释),而更多地是在使用哪种方法来调整所涉及的算法,哪些数据使用了集合,以及人类决策者决定如何使用算法的结论。
可逆性
企业还必须能够扭转深度学习的内容。将其视为具有学习某些知识或数据的能力,这有助于防止数据集中出现不必要的偏差。可逆性是AI工作概念中必须设计的内容,通常需要跨职能的专业知识和支持。
公司可以采用三种方法在其AI项目中将这些原则付诸实践。这些方法旨在降低引入不良调整的AI系统以及飞行员和实施中决策不正确或有偏见的风险。