人工智能的末日论:它为什么会引发硅谷的内战?
2023年05月23日 由 Neo 发表
218625
0
本周在一次国会听证会上,OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)发出了警告,提醒人们该公司推出的技术所带来的危险。
他警告称,像该公司的ChatGPT聊天机器人这样的技术可能会引发虚假信息宣传和操纵,并呼吁进行监管。
阿尔特曼表示,人工智能可能会“对世界造成严重的危害”。
随着有关人工智能是否会支配世界的辩论从科幻小说走向现实,分裂了硅谷和正在努力推动该技术面向公众的人们。
以前认为机器可以突然超越人类智能并决定毁灭人类的边缘信念正在获得关注。该领域中一些最受尊敬的科学家正在加快他们自己的时间表,因为他们认为计算机可以学会超越并操纵人类。
但许多研究人员和工程师表示,对在终结者电影中唤起天网的杀手 AI 的担忧并没有扎根于良好的科学。相反,它分散了人们对技术已经造成的非常现实的问题的注意力,包括阿尔特曼在他的证词中描述的问题。它正在制造版权混乱,加剧人们对数字隐私和监视的担忧,可用于增强黑客破坏网络防御的能力,并允许政府部署无需人类控制即可杀人的致命武器。
随着谷歌、微软和 OpenAI 都发布了突破性技术的公共版本,这些技术可以进行复杂的对话,并根据简单的文本提示生成图像,关于邪恶 AI 的争论愈演愈烈。
“这不是科幻小说。”被称为人工智能教父的杰弗里·辛顿说,他最近从谷歌退休,以便更自由地谈论这些风险。他现在表示,比人类更聪明的 AI 可能会在 5 到 20 年内出现,而他之前的估计是 30 到 100 年。
“就好像外星人已经登陆或即将登陆一样,”他说。“我们真的不能理解,因为他们英语说得很好而且很有用,他们可以写诗,可以回复无聊的信件。但他们真的是外星人。”
尽管如此,根据与不愿透露姓名的大型科技公司的员工分享的其公司内部的讨论,许多与该技术密切合作的工程师并不认为人工智能接管是人们现在需要关注的事情。
“在这个领域的活跃研究人员中,更多的人关注的是当前的风险,而不是存在风险,”AI初创公司Cohere的研究实验室Cohere for AI的主任、前谷歌研究员Sara Hooker表示。
当前的风险包括释放被训练成具有种族主义和性别歧视信息的机器人。AI所学习的绝大部分训练数据都是用英语编写的,来自北美或欧洲,这可能会使互联网更加偏离大多数人的语言和文化。机器人还经常制造虚假信息,并将其描述为事实。在某些情况下,它们被推入对话循环中,扮演敌对的角色。该技术的涟漪效应仍不清楚,整个产业正在为颠覆做准备,即使是律师或医生等高薪工作也不例外。
存在的风险似乎更加严峻,但许多人认为它们更难量化且更不具体:未来人工智能可能会积极伤害人类,甚至以某种方式控制我们的机构和社会。
“有一些人认为,这只是算法而已。它们只是重复在网上看到的内容。”在今年四月的一次“60分钟”访谈中,谷歌CEO桑达尔·皮查伊说道,“然而还有一种观点认为,这些算法展示出了新的性质,如创造力、推理和规划。我们需要谦卑地面对这个问题。”
这场辩论源于过去十年计算机科学领域机器学习的突破,该领域创造了可以在没有人类明确指示的情况下从大量数据中提取新见解的软件。该技术现在无处不在,帮助推动社交媒体算法、搜索引擎和图像识别程序。
然后,去年,OpenAI 和其他一些小公司开始推出使用下一阶段机器学习技术的工具:生成式 AI。这些程序被称为大型语言模型,经过从互联网上搜集的数万亿张照片和句子的训练,可以根据简单的提示生成图像和文本,进行复杂的对话并编写计算机代码。
“大公司正在竞相构建越来越智能的机器,却缺乏监管。” 未来生命研究所执行董事安东尼·阿吉雷说道。该组织成立于2014年,旨在研究对社会的存在风险。并在 Twitter 首席执行官埃隆·马斯克 (Elon Musk) 的资助下,它开始研究人工智能摧毁人类的可能性,并于2015年开始研究人工智能毁灭人类的可能性,与有效利他主义物紧密联系。有效利他主义是一种慈善运动,在富裕的科技企业家中很受欢迎。
如果人工智能获得了比人类更好的推理能力,他们将尝试控制自己,阿吉雷说,除了现今的问题,这也值得我们担心。
“如何限制它们不偏离轨道将变得越来越复杂,”他说,“这是一些科幻小说早就关注到的主题。”
阿吉雷在3月份帮助发起了一封极具争议性的信,呼吁暂停六个月的新人工智能模型培训。AI领域资深研究者Yoshua Bengio(2018年获得计算机科学领域最高奖项之一)和拥有影响力的AI创业公司之一的首席执行官Emad Mostaque是其中的27,000个签名者之一。
马斯克是最受瞩目的签署者,他最初帮助创办了 OpenAI,他本人正忙于组建自己的 AI 公司,最近投资购买了训练 AI 模型所需的昂贵计算机设备。
几年来,马斯克一直公开表达他的信念,认为人类应该谨慎地考虑开发超级智能人工智能的后果。在周二接受CNBC采访时,他表示他帮助资助OpenAI,是因为他觉得谷歌联合创始人Larry Page在面对人工智能威胁时“过于轻率”。(马斯克已经与OpenAI 断了联系。)
美国知乎 Quora 的首席执行官 Adam D'Angelo 在谈到这封信及其要求暂停的呼吁时说:“人们提出它的动机多种多样。”Quora 也在构建自己的 AI 模型。他没有签字。
OpenAI的CEO阿尔特曼也没有签署这封信,他表示他同意信件中的某些部分,但缺乏“技术细节”并不是规范AI的正确方式,他公司的方法是尽早将AI工具推向公众,以便在技术变得更加强大之前发现和修复问题。在周二近三个小时的关于人工智能的听证会上,阿尔特曼说道。
但是,关于杀手机器人的辩论中,一些最严厉的批评来自那些多年来一直研究这项技术缺陷的研究人员。
2020年,Google的研究员蒂姆尼特·葛布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)与华盛顿大学学者艾米莉·M·本德(Emily M. Bender)和安吉利娜·麦克米兰-梅杰(Angelina McMillan-Major)共同撰写了一篇论文,指出大型语言模型模仿人类语言能力的增强正在创造更大的风险,人们可能会将它们视为有感知能力的。
相反,他们认为这些模型应该被视为“随机的鹦鹉”——或者仅仅是非常善于根据纯概率预测句子中的下一个单词,而无需考虑它们所说的内容。其他批评者称LLM为“类固醇自动完成”或“知识香肠”。
他们还记录了这些模型如何例行地说出性别歧视和种族主义的内容。葛布鲁表示,这篇论文被谷歌封锁了,而她在公开发表论文后被解雇。几个月后,该公司解雇了米切尔。
在马斯克和其他人签署了信件之后,这篇Google论文的四名作者自己撰写了一封回信。
“我们不能被想象中的人工智能乌托邦或末世所分心,”他们说,“相反,我们应该关注那些声称要构建它们的公司的非常现实和迫在眉睫的剥削性行为,这些公司正在迅速集中权力并增加社会不平等。”
当时,谷歌拒绝对葛布鲁的解雇发表评论,但表示仍有许多研究人员致力于有道德的人工智能研究。
当然,现代人工智能是强大的,但这并不意味着它们是即将出现的威胁,AI公司Cohere的执行董事胡克称。人们总是在谈论人工智能摆脱人类控制的问题,特别是像《终结者》电影中的AI对手“天网”那样迅速克服它的限制。
胡克说:“大多数技术和技术风险都是逐渐转变的。大多数风险都是由当前存在的限制所造成。”
去年,谷歌解雇了AI研究员布莱克·莱蒙(Blake Lemoine),他在接受《华盛顿邮报》采访时表示,他认为该公司的LaMDA人工智能模型是有感知能力的。当时,他被行业内很多人驳斥。一年后,他的看法在科技界并不显得离谱。
前谷歌研究员辛顿表示,他最近才改变了对于该技术潜在危险的看法,在与最新的AI模型合作之后。他向计算机程序提出了复杂的问题,在他看来,这些问题需要它们广泛地理解他的请求,而不仅仅是根据它们训练过的互联网数据预测一个可能的答案。
今年3月,微软研究人员在研究OpenAI的最新模型GPT4时表示,他们观察到了“AGI火花”——或者说是人工通用智能,这是一个松散的术语,用来描述与人类一样有自主思考能力的AI。
微软已经花费数十亿美元与OpenAI合作开发自己的必应聊天机器人,怀疑者指出,微软正在建立其围绕AI技术的公共形象,对于展现技术比实际水平更先进的印象有很大好处。
微软研究人员在论文中表示,该技术已经基于它所接受的文本开发了对空间和视觉世界的理解力。GPT4可以画出独角兽,并描述如何将随机物品,包括鸡蛋,按照一定方式堆叠起来,使鸡蛋不会破碎。
这个研究团队写道:“除了精通语言,GPT-4还可以解决涉及数学、编码、视觉、医学、法律、心理学等各种新颖和困难的任务,而无需任何特殊提示。”他们得出结论,在许多领域,AI的能力可以与人类匹敌。
不过,研究人员承认,即使是AI研究人员制定了可衡量的标准来评估机器的智能水平,也很难定义“智能”。