IBM可解释人工智能的研究目标是确保系统的可靠性

2019年09月18日 由 TGS 发表 773841 0
人工智能可以推进科学发展,但除了技术挑战之外,思想也是障碍之一。换个说法就是,人类必须相信自己建立的系统,固有的思维需要被打破,过分担忧人工智能的危害没有太大意义。IBM Thomas J.Watson研究中心的研究人员Pin Yu Chen说:“让人工智能值得信赖需要很多承诺,这是一个漫长的过程,而我们才刚刚开始。”

Chen和他的同事们正在研究如何通过四个关键部分来确保人工智能是值得信赖的:公平性、可解释性、安全性和责任感。

“值得信赖的人工智能的这四个关键组件,对于人工智能实现自动化的过程至关重要。”IBM Thomas J.Watson研究中心的研究人员、科学家和经理Payel Das说,“如果是由人工智能来驱动某个产品的生产过程,那么在此之前,人工智能必须得到社会与人类的信任。”



Chen和Das都在IBM Research完善人工智能系统,他们设计的人工智能可以很好地概括不同场景,并使科学发现过程自动化。他们认为解决这些挑战,是在共享IBM公平性、可解释性、安全性和责任感方面的工作经验。Kaitlyn Barago代表人工智能趋势与他们讨论了可信度的基础、开放科学的贡献以及AI的未来。总结如下:

信任有多个维度,目前IBM有四个支柱:公平性、可解释性、安全性和责任感。信任是一种非常特殊的东西,它随着时间的推移而演变,这取决于科研人员为企业提供的解决方案。人工智能模型取决于它所训练的数据,开源数据的公正性和平衡性对于构建值得信赖的人工智能至关重要。开源库本身是确保人工智能模型标准化和可复制性的关键组成部分,因此,如果人类有一个标准化的开源库,并且能保证信任度,那么在构建人工智能时,那个开源库肯定会被第一时间考虑在内,因为它可以使人工智能道路更加简单和标准化。

IBM开源的研究资产几乎可以让每个人都从中受益。近期,IBM宣布加入Linux基金会AI,以增加人类对AI的信任,负责人表示:使人工智能系统值得信赖是非常重要的,这是IBM在如何使人工智能透明化的道路上迈出的一大步,以及在责任方面作出的承诺。

 
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消