波士顿深度学习峰会上的AI算法偏差和伦理讨论
2018年05月25日 由 浅浅 发表
264388
0
今天在波士顿举办的深度学习峰会上,一群伦理学家和工程师讨论了人工智能面临的一些最大挑战:算法偏差,人工智能伦理以及是否应该广泛提供创建人工智能的工具。
专家组成员包括Simon Mueller,联合创始人兼智库The Future Society的副总裁;人工智能伦理实验室的创始人兼总监Cansu Canca;哈佛大学机器学习教师Gabriele Fariello,神经信息学研究员,罗德岛大学首席信息官;以及Google,IBM和美国数字服务专家Kathy Pham,他们目前正在哈佛伯克曼克莱因中心和麻省理工学院媒体实验室进行人工智能和软件工程方面的伦理研究。
Mueller以一个棘手的问题开启了讨论:道德是不是人工智能进展中最紧迫的问题?
Pham说:“总有一种先开展工程,再解决技术问题的态度(当涉及到人工智能时)。有很多专家在考虑这个问题,这些声音需要被重视。”
Canca认为道德不应该在产品线和设计师之间经常讨论。她说:“工程师应该从一开始就一直思考AI,直到他们将产品商业化。政策似乎通常与开发者和讨论分开进行。”
Fariello回应了Pham的观点,并补充道,在AI领域不重视道德操守会对人们的生活产生负面影响。“有一些重大的问题,比如医疗保健,司法系统会直接影响你的生活。”
他以威斯康星州最高法院最近的判决为例。2017年5月,它裁定威斯康星州的一名男子Eric Loomis被判处六年有期徒刑,部分原因是Northpointe的Compas软件的推荐,该软件使用专有算法来预测被告犯下更多罪行的可能性。ProPublica的一份报告发现,Compas比起白人被告,更有可能判定黑人被告更高的再次犯罪率。
有偏倚的算法不仅影响司法系统。Canca说,个性化的,以机器学习为主的新闻提要,例如谷歌新闻 “将人分类”。“随着信息的多样性缩小,你与世界的接触将与像你这样的人或与你共同分享意见的人靠近。”
Fariello指出,像Facebook这样的算法驱动的公司几乎可以激励他们展示“肯定用户信念”的内容,并且这包含一个积极的反馈循环。“我们变得两极化了,我们看不到其他的观点。”
他说,政策制定者的无知正在助长这个问题。Canca同意这个观点,“我们需要在政策层面采取积极的态度。”
尽管对人工智能及其相关的问题看法不同,但小组成员在民主化AI的问题上达成一致:所有人都表示,AI开发工具和库应该公开可用并且是开源的。“让我们打开它,让人们使用它,”Canca说。“这是必经之路。”
Fariello认为这些工具本身并不是问题。相反,保密和缺乏透明度问题很大。“大型神经网络本质上是黑盒子,”他说。“如果在黑匣子周围再加锁,我们会遇到很大麻烦。”