吴恩达等四位大咖对2019年AI的预测和见解

2019年01月03日 由 浅浅 发表 114932 0
吴恩达等四位大咖对2019年AI的预测和见解越来越多的人认识并了解AI,专家们除了对一年的回顾和对未来的预测,也强调该领域的计算机和数据科学家仍需要在发展AI时遵循道德规范。

以下是Google Brain联合创始人吴恩达,ML和Fast Forward实验室创始人Hilary Mason,Facebook AI研究创始人Yann LeCun,埃森哲AI全球领导者Rumman Chowdhury博士的经验和见解。

Rumman Chowdhury博士


Rumman Chowdhury博士是埃森哲应用智能部门的常务董事,也是其Responsible AI计划的全球负责人,并于2017 年入选BBC的百名杰出女性。

吴恩达等四位大咖对2019年AI的预测和见解

Chowdhury表示,她很高兴看到公众对AI的能力和限制有了更多的了解,并且听到了对AI带来的威胁的讨论,而不是一直担心世界被“终结者”那样的智能机器接管。随之而来的是人们对隐私和安全问题的关注和质疑,以及AI在塑造我们和后代方面可能扮演的角色。

在未来的一年里,Chowdhury希望看到更多的人利用教育资源来理解AI系统,并能够质疑AI决策。

她对AI生态系统中的技术公司和人们开始考虑其工作的伦理影响的速度感到惊喜。但她希望看到AI社区做得更多,“超越美德信号,转向实际行动”。

她提出了几个问题:

  • AI和基于物联网的监控的正确平衡是怎样的?既能保障安全,又能抵制强化现有种族歧视的惩罚性监控状态?

  • 我们应该如何重新分配从先进技术中获得的利益,以免进一步扩大贫富差距?

  • 什么程度的接触让他们成为“AI本地人”,而不是被操纵或同质化?

  • 我们如何利用AI实现教育的规模化和自动化,同时又能让创造力和独立思考蓬勃发展?


在未来一年,Chowdhury预计将在全球范围内看到更多的政府审查和技术监管。

“AI和全球科技巨头所掌握的权力引发了很多关于如何规范行业和技术的问题,”她说。“在2019年,我们将不得不开始提出这些问题的答案。当技术是一种具有特定背景的结果的多功能工具时,如何规范技术?如何创建不会扼杀创新或有利于大型公司(可以承担合规成本)的监管而不是小型创业公司?我们在什么级别进行监管?国际范围?国家范围?还是本地?”

她还希望看到AI在地缘政治问题上的作用演变。

“这不仅仅是一项技术,而是一种经济和社会的塑造。我们在这项技术中反思,扩展和执行我们的价值观,我们的行业需要对我们构建的内容以及我们如何构建它的含义不那么天真。”

为了实现这一目标,她认为人们需要超越AI行业中常见的想法,创造就是力量所在。

“我希望监管机构,技术专家和研究人员意识到,我们的AI竞赛不仅仅是计算能力和技术敏锐性,就像冷战不只是核能力一样,”她说,“我们有责任以更公正,更公平的方式重建世界,同时我们有难得的机会。这个时刻是短暂的,我们不要浪费它。”

在消费者层面,她认为2019年人们将会在家中更多地使用AI。许多人已经习惯于使用Google Home和Amazon Echo等智能音箱,以及一系列智能设备。在这方面,她很想知道消费电子展是否会在1月的第二周在拉斯维加斯拉开序幕,这可能会进一步将AI整合到人们的日常生活中。

“我想,我们都在等一个机器人管家出现,”她总结道。

吴恩达


吴恩达预计,到2019年,AI将在技术或软件公司以外的应用领域取得进展或发生变化。AI领域最大的未开发机遇不在于软件行业,他援引麦肯锡一份报告中的用例称,到2030年,AI将创造13万亿美元的GDP。

吴恩达等四位大咖对2019年AI的预测和见解

“我认为2019年AI将出现在软件行业以外的应用中。作为一个行业,我们在帮助谷歌和百度以及Facebook和微软等公司方面做得不错,但即使像Square和Airbnb,Pinterest这样的公司也开始使用一些AI功能。我认为,下一次巨大的价值创造浪潮将是你可以让制造公司,农业设备公司,医疗保健公司开发数十种AI解决方案来帮助发展他们的业务。”

和Chowdhury一样,吴恩达对2018年AI能做什么和不能做什么的理解的提高感到惊讶,并且很高兴能够在不关注杀手机器人场景或害怕AI的情况下进行对话。

他说,“我特地列举了几个领域,我认为这些领域对实际应用非常重要。我认为AI的实际应用存在障碍,但在这些问题上,一些地方取得了可喜的进展。”

在未来的一年里,吴恩达预期AI/ML中两个具体领域取得进展,这有助于整个领域的发展。一种是它可以用更少的数据得出准确的结论的AI,这被某些领域的人称为“few shot learning”。

“我认为第一波深度学习进展主要是大公司,有大量的数据训练庞大的神经网络,因此,如果你想构建语音识别系统,请使用10万小时的数据进行训练。想训练机器翻译系统?用平行语料库的数量对句子进行训练,这会产生很多突破性的结果。我越来越多地在小数据上看到希望,即使你有1000张图片,你也想尝试在这些小数据上得到结果。”

另一个是被称为“广义可见性”的计算机视觉技术的进步。如果使用斯坦福大学的高端X光机拍摄的原始图像进行训练,计算机视觉系统可能工作得很好。该领域的许多先进公司和研究人员已经创建了比人类放射科医生更优秀的系统,但它们并不是非常灵活。

“但是,如果你采用训练有素的模型并将其应用于从低端X光机拍摄的X光或从不同的医院拍摄,图像有点模糊,也许X光技术人员让患者略微向右转,所以角度有点偏离,事实证明,人类放射科医师在推广这一新环境方面比今天的学习算法要好得多。因此,我认为有趣的研究正在尝试提高新领域学习算法的普遍性。”

Yann LeCun


Yann LeCun是纽约大学的教授,Facebook首席AI科学家,Facebook AI研究(FAIR)的创始董事,该公司创建了PyTorch 1.0和Caffe2的公司,以及许多AI系统,比如Facebook每天使用数十亿次的文本翻译AI工具,以及先进的强化学习系统。

吴恩达等四位大咖对2019年AI的预测和见解

LeCun认为FAIR为其研究和工具采用的开源政策有助于推动其他大型科技公司做同样的事情,他认为这已将AI领域作为一个整体推进。

“当更多人就研究进行沟通时,整个领域的进展更快,这实际上影响重大,你今天在AI中看到的进步速度很大程度上是因为更多的人比以往更快、更有效率地进行更开放的研究。”

在伦理方面,LeCun很高兴看到在伦理影响和偏见决策的危险方面取得的进展。“这说明人们应该注意到的问题已经得到了重视。而两三年前情况并非如此。”

LeCun表示,他并不认为AI的道德和偏见已经成为需要立即采取行动的重大问题,但他认为人们应该做好准备。

他说:“我不认为有什么重大的生死问题亟待解决,但问题总会出现,我们需要理解这些问题,并在问题发生之前加以预防。”

与吴恩达一样,LeCun希望看到更多的AI系统具有灵活性,更强大,不需要原始输入数据或准确输出的精确条件。

LeCun表示,研究人员已经可以通过深度学习很好地管理感知,但缺少的部分是对完整AI系统整体架构的理解。他说,通过观察世界来教学的教学机器将需要自我监督学习或基于模型的强化学习。

“不同的人给它起了不同的名字,但基本上,人类婴儿和动物都是通过观察并找出关于它的大量背景信息来了解世界是如何运作的,我们不知道如何用机器做到这一点,但那是一个巨大的挑战。奖励就是在AI和机器方面取得实际进展,让它有一些常识,用虚拟助手不会令人沮丧,并且有更广泛的主题可以讨论。”

对于将在Facebook内部提供帮助的应用程序,LeCun表示在自我监督学习方面取得的重大进展将非常重要,同时AI返回准确的结果需要的数据更少。

“在解决这个问题的过程中,我们希望找到减少任何特定任务所需的数据量的方法,如机器翻译或图像识别或类似的事情,我们已经在这方面取得了进展;我们已经通过弱监督或自我监督学习翻译和图像识别,对Facebook使用的服务产生了影响。因此,那些实际上不仅仅是长期的事情,它们也会产生短期的影响。”

在未来,LeCun希望看到可以在事件之间建立因果关系的AI取得的进展。这不仅仅是通过观察来学习,而是具备实际的理解能力,例如,如果人们使用遮阳伞,就会判断可能要下雨。

“这将是非常重要的,因为如果你想让一台机器通过观察学习世界的模型,它必须能够知道它可以影响什么来改变世界的状态,并且有些东西你不能做。”

如果你在一个房间里,桌子就在你面前,它上面有一个水瓶,你知道你可以推动水瓶,它会移动,但你不能移动桌子,因为它很大很重,这样的事情与因果关系有关。

Hilary Mason


在Cloudera于2017年收购Fast Forward Labs之后,Hilary Mason成为了Cloudera的机器学习总经理。Fast Forward Labs虽然吸收了Cloudera,但仍在运作中,提供应用机器学习报告,并帮助客户展望未来六个月到两年的发展。

吴恩达等四位大咖对2019年AI的预测和见解

AI在2018年让Mason感到惊讶的一个进步与多任务学习有关,它可以训练单个神经网络在推断例如图像中看到的物体时应用多种标签。

Fast Forward Labs也一直在为客户提供有关AI系统伦理影响的建议。Mason认为有必要建立某种道德框架。

“这是自从我们创建Fast Forward以来所做的事情,我们一直在撰写关于道德规范的报告。2018年,人们已经真正开始接受并关注这个问题,我想2019年会开始看到公司和那些不关注这个问题的人们带来的后果或责任。”

“我没有说清楚的是,我希望数据科学和AI的实践发展成为默认的期望,技术人员和商业领袖创建AI产品将考虑道德和偏见问题以及这些产品的开发,而今天并不是任何人都想到这些东西的默认。”

随着更多AI系统成为未来一年业务运营的一部分,Mason预计产品经理和产品负责人将开始在AI方面做出更多贡献,因为他们处于最佳状态。

Mason还认为,越来越多的企业需要形成结构来管理多个AI系统。

就像有时用于描述在DevOps中工作的人所面临的挑战的类比,管理单个系统可以使用手动部署的自定义脚本完成,而cron作业可以管理几十个。但是,当你管理数十个或数百个系统时,在具有安全性,治理和风险要求的企业中,你需要专业、稳定的工具。

由于Cloudera最近推出了自己的基于容器的机器学习平台,因此强调部署AI的容器对Mason来说很有意义。她相信这种趋势将在未来几年继续,因此公司可以选择部署在云中的内部部署AI。

最后,Mason认为,AI的业务将继续发展,这是整个行业的共同实践,而不仅仅是个别公司。

她说,“我认为我们将看到AI专业实践的不断发展,现在,如果你是一家公司的数据科学家或ML工程师,当你换到另一家公司,你的工作将完全不同:不同的工具,不同的期望,不同的报告结构。但未来,我想我们会看到更多的一致性。”
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消