人工智能发展的自主决策风险引起专家的担忧与努力

2023年06月14日 由 daydream 发表 28851 0
AI与人类价值观之间的不匹配可能导致这样的情况:AI系统可以在不考虑人类福祉的情况下自主决策。

在ChatGPT将人工智能世界推向无法控制的狂热的几年前,Elon Musk对Sam Altman的一次采访就对人工智能的潜力发出了不祥的警告。马斯克谈到了人工智能技术民主化的必要性,以防止这种强大的技术被少数人控制,并强调了人工智能如何被用于不良目的。这是在2016年。7年后的今天,人工智能之父和科学家们发出了同样的警报,只是人工智能技术现在要先进得多,而且所有专家并没有团结起来,担心未来的人工智能风险。



哭的孩子有奶吃

过去几个月出现了许多运动,人们希望在控制权完全丧失之前实现某种形式的控制。今年5月,近3万人签署了一封公开信,要求暂停开发比GPT-4更强大的人工智能模型,其中包括人工智能专家约书亚·本吉奥、加里·马库斯、埃隆·马斯克、史蒂夫·沃兹尼亚克等人。几周前举行的关于人工智能的国会听证会可能是政府机构参与其中的第一步,Sam Altman和Gary Marcus在听证会上提出了监管人工智能的必要性。

还有另一份联合声明谈到了人工智能的风险,并将其等同于核战争,该声明由人工智能之父杰弗里·辛顿、约书亚·本吉奥、谷歌DeepMind的杰米斯·哈萨比斯等人签署。然而,人工智能科学家和专家在就人工智能风险方面存在分歧。

失眠的AI世界

Bengio最近表达了他对人工智能可能被滥用的担忧,这让他感到迷茫,并质疑他一生的工作。他最大的恐惧之一是“坏人”滥用人工智能造成伤害。如果它落入军方、恐怖分子或任何可以调整这些系统做坏事的错误的人手中,后果将是灾难性的。

在一篇详细的文章中,Bengio解释了他的担忧,即失去对系统的控制将导致流氓AI。随着系统变得越来越先进和自主,可能会导致人类失去控制,对人类造成灾难性的后果。AI和人类价值观之间的不协调可能会导致AI系统在不考虑人类福祉的情况下自主做出决策的情景。

Bengio谈到了未来情景的可能性,如果我们要求人工智能解决气候变化问题,它可能会设计一种病毒,由于缺乏明确的指示或将人类视为气候危机的主要推动者,该病毒将消灭人口。

上个月,Hinton离开了谷歌,直言不讳地表达了他对人工智能技术的担忧。Hinton最大的恐惧之一是AI对人类的威胁。他认为,如果人们在人工智能开发中追求利润,那么未来人工智能生成的内容将超过人类创造的内容,从而危及人类的生存。

人工智能模型的神经网络比人类少,但能够拥有1000倍的知识,并不断学习和分享知识,这是令人担忧的。他还担心随着聊天机器人越来越多的出现,误导信息也会随之增加。聊天机器人中出现的偏见观点可能对社会产生不利影响。

在十字路口相遇

这一切都归结为需要引入人工智能法规,甚至Altman在他的世界巡回演出中也经常在他的所有活动中倡导这一点,甚至期望中国帮助制定人工智能安全护栏。

在最近的一次采访中,Hinton强调了在达成共识方面的必要性,以便共同前进。就像气候科学家对气候变化有一个大致的共识一样,人工智能科学家也应该团结起来制定好的政策。他还认为,如果科学家们能够列出一些有关人工智能的技术问题的共同观点清单,那么这将有助于共识达成。如果人工智能研究人员提出各种各样的意见,那么选择起来就更容易了。

Bengio强调,随着人工智能系统变得超级智能和自主,需要治理和监管来减轻人工智能风险。他还谈到需要适当跟踪这些模型的进展。政府应该能够监控和审计它们,类似于对汽车和制药等任何其他行业所做的那样。类似于某种形式的道德培训,为在此类系统上工作的人员提供某种认证的需求也变得必要。

虽然Marcus和Hinton倡导监管以防止人工智能灾难,但人工智能专家Yann LeCun认为这些担忧是没有根据的。他把人工智能的“末日论者”和“悲观主义者”称为“能够想象出灾难性的场景,但却缺乏预防方案的人”。随着Meta在人工智能方面的进展,该公司的GPT 2已经达到了OpenAI三年前的水平。也许这就是为什么预测人工智能风险对他来说是一个挑战。

 

来源:https://analyticsindiamag.com/fuelling-ai-fathers-artificial-anxiety/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消