MIT生命未来研究所联合创始人Max Tegmark携新书谈AI的未来

2018年06月11日 由 浅浅 发表 608352 0
MIT生命未来研究所联合创始人Max Tegmark携新书谈AI的未来

Max Tegmark是麻省理工学院的教授,基础问题研究所的科学主任,以及生命未来研究所(FLI)的联合创始人。

他也是AI领域最重要的人物之一。2015年,马斯克向FLI捐赠了1000万美元,用于推动对AI系统的道德,法律和经济影响的研究。Tegmark的最新著作《Life 3.0: Being Human in the Age of Artificial Intelligence》中,假定未来的神经网络可以重新设计自己的硬件和内部结构。包括探讨“superintelligent AI”的潜在含义,机器和人类的整合,改变的社会结构以及监视其创造者的算法。

Tegmark最近在IPsoft纽约市的数字劳动力峰会上谈到了AI的潜力及其危险性。

下面是VentureBeat的采访记录。

Q:在你的新书中,你展示了superintelligent AI最终可能融入我们生活的12种不同方式。我清楚地记得,其中一个是1984式的社会,另一个是AI作为征服者出现。AI似乎有很多消极的方面,特别是Peter Thiel和马斯克强烈认为AI是一种威胁,我们应该仔细考虑如何实施它。那么就智能而言,我们越来越可能看到什么情形?你认为它的形式会是什么样的?你是否认为它的一些负面被夸大了?

A:人们经常问我,是否支持或反对AI,我反问他们是否认为火是一种威胁。你用火自然是为了保持温暖而不是放火对吧?火与AI的区别在于,AI,尤其是superintelligent AI,是更为强大的技术。

技术是把双刃剑,技术也会放大我们的能力。而且它越强大,我们就可以做得越好或越糟。只要我们赢得技术日益增长的力量和并管理有嘉,我们就可以创造真正鼓舞人心的高科技未来,我对此感到乐观。我认为这是一个难题,因为我们赢得这场比赛的旧策略是从错误中吸取教训。我们发现了火,毁了很多事物后,才发明了灭火器。因此,对于AI这种更强大的技术,我们不希望从错误中学习,一次做对事情就好多了。

我个人认为,像马斯克和霍金这样的人,当他们都是乐观的人时,却被人指责为悲观主义。马斯克谈论AI危险的原因是他比一般的政治家更多地考虑长远的未来。

你开始意识到,如果你做得对,AI将是多么的惊人,而如果我们搞砸了,将会带来多么严重的后果。人们有时会让我闭嘴,不让我谈论AI的风险,因为他们说这是危言耸听,但这在我们麻省理工学院称之为“安全工程”。

在美国宇航局发射阿波罗11号月球任务之前,它系统地考虑了将人员放在爆炸性油箱顶部并将其发射到无人能够帮助他们的地方时可能出现的任何错误。这是扰乱民心吗?不是,这正是确保成功所需的安全工程。

这就是我所倡导的强大的AI战略:思考如何确保其正确性。对我而言,真正的威胁是自满,拒绝做安全工程并拒绝做计划。

Q:是的,我认为你刚刚提到的灭火器比喻是恰当的。我不确定对于AI真的要有这个过程,对吧?

A:对于superintelligence,我们当然没有。你不会希望发生意外的核战争,看着成千上万的蘑菇云说:“让我们从这个错误中吸取教训吧。”提前计划和避免它首先出错是更好的选择。

Q:是的,当然。你是生命未来研究所的联合创始人,去年夏天,你发表了一封公开信,许多AI和机器人研究人员反对自主武器。但不幸的是,我们似乎听到越来越多关于自主武器的消息。有一个明显的例子,Project Maven,五角大楼的无人机项目,它在Google内外引起了很多争议,也有证据表明俄罗斯,中国和印度正在开发自主武器。这很难不引起关注对吧?

A:这是我觉得比较乐观的例子。我有很多同事对此非常沮丧,并说,‘哦,我们搞砸了。任何可以在军事上使用的技术他们都不会放过,放弃挣扎让军备竞赛开始吧。’但事实并非如此。我们有一个很好的反生物武器反例。看看生物学。你主要将它与什么联系在一起:治愈人的新方法或杀死人的新方法?当然是前者了。

有一条非常明确的红线,超出这个界限的人认为生物学的使用令人厌恶,他们不想进行资助,他们也不想为他们工作。我的乐观看法是,你可以用AI来完成同样的事情,所以从现在起10年后,将会有一项国际协议,禁止某些种类的攻击性致命武器,人们会认为人工智能是一种对世界有益的力量,而不是一种可怕的、不稳定的暗杀工具。

但是,与生物学一样,这不是一个定局。这将需要很大的努力,而这正是你现在看到的争议。你看到很多AI研究人员,包括那些在谷歌上签名的人,他们想画线,所以有非常激烈的辩论。目前还不清楚它将走向哪条路,但我很乐观,我们可以把它推向与生物学走向相同的良好方向。那些悲观主张是不正确的。

Q:你在这封信中提到,即使国际条约已经签署,而且像美国这样的国家可以理解AI的恰当和不恰当的用途,这些工具有可能落入不那么严格的领导者手中。例如,看看阿萨德政权下叙利亚的生物武器。你会说这只是你必须承担的风险,还是有什么我们可以做的?

A:我认为我们可以做很多事情来阻止它。生物武器实际上很便宜,但事实是,并没有真正用生物武器攻击,对吧?不是因为这是不可能的,但真正关键的是它本身带来的耻辱感。假装制造生物武器甚至不假装的人之间有很大的区别。人们认为这很恶心,他们不想为此付出努力,以及为生物武器获得风险投资。叙利亚的阿萨德得到了他们的支持,并使用了他们,这是真的,但是耻辱感和厌恶感是如此强烈,以至于他甚至自愿放弃了一堆他的生物武器,只是为了不被入侵。

至于结果,有人被化学武器杀死,但是他们杀死的人比在医院里因车祸或医疗失误死亡的人少得多。致命的自主武器将价格便宜,但是,如果它永远不能进入大规模生产阶段,那么它在整个事物的计划中仍然是讨厌的东西,所以AI作为一个整体将被视为一件积极的事情。我确实认为这是非常可行的,而且确实会发生。但是,在这些变得非常便宜之前,这种情况必须很快发生,因为军备竞赛一旦开始,它们就会自动获得动力。

AI专家基本上认为应该在画一条界线。但另一方面,人们认为AI在军队中的用途很多,有些人认为它非常实用。实际上,我认为超级大国意识到对于新技术来说这并不符合他们的利益,因为这种技术非常便宜,所有当地的恐怖组织和流氓国家的敌人都可以得到它。

Q:最近有很多关于AI偏见的讨论。你认为这是一个很大的问题,因为它被证明是,或者你认为这不是一个AI问题,而是一个数据问题?一些研究人员认为我们没有正确的语料库,我们正在对有限的数据集进行算法训练,并且它会扭曲结果。

A:如果你拥有技术,但拥有的还远远不够多,你就必须明智地使用它。

例如,如果技术是AI,它决定谁受到缓刑,谁不受惩罚,那么它就会理解你拥有的数据,并且充分了解系统的内部运作。在美国广泛部署的Compas系统就是一个黑匣子,用户通常不知道它是如何工作的。他们很惊讶地得知该系统可能存在种族偏见。这是我们为什么应该积极主动并提前考虑可能出现问题的另一个例子。

对于那些深思熟虑的人来说,这并不令人惊讶,这是一个可预防的问题。

Q:我会在这里结束最后一个大问题。我们已经谈到了所有在AI投入大量资金的不同国家,并表达了对培育“AI创新中心”的兴趣。作为一个非常密切关注这个问题的人,你认为有一个特定的国家正在取得进展吗?

A:对我来说,最有趣的问题之一不是它看起来像什么,而是我们应该做些什么来使它看起来不错。很显然,美国和中国是两个AI超级大国,不过英国也正在与Google DeepMind合作。

Q:加拿大不错吧?

A:加拿大有一些非常棒的东西。但是如果你比较中国,加拿大和其他国家,美国是在基础计算机科学教育中投入最少的国家,而中国则投资很多。你在军队中宣传很多,但是投资基础教育是非常重要的。你知道为什么美国现在是科技行业的领导者吗?为什么硅谷在加州而不是在比利时?这是因为在60年代,在太空竞赛中,政府投入了大量的基础STEM教育,这造就了整整一代非常有动力的年轻美国人,他们继续开创科技公司。

Alpha Zero和Alpha Go在中国的业务使他们意识到必须大力投资基础AI教育和研究。如果你看看美国政府对美国国家科学基金会的贡献,与中国投资的情况相比,是非常匮乏的。如果我们不投资教育,我们基本上会在比赛中失败。

如果我们能在人工智能上取得成功,这将是一个棒的机会,可以帮助人类蓬勃发展,这也是为什么我们值得为把它做好而奋斗。今天,世界上的每一个问题都可以用更好的技术来解决,而AI是其中的一个关键部分。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消