Geoffrey Hinton对以利润为驱动的AI发展提出了担忧
2023年06月13日 由 daydream 发表
65386
0
人工智能的两位先驱Geoffrey Hinton和Andrew Ng聚在一起,就人工智能的威胁和风险进行了有趣的讨论。
Hinton最近离开谷歌讨论人工智能威胁。他支持埃隆·马斯克(Elon Musk)、史蒂夫·沃兹尼亚克(Steve Wozniak)、约书亚·本吉奥(Yoshua Bengio)、加里·马库斯(Gary Marcus)和其他几位人工智能专家,他们签署了一封公开信,要求暂停GPT-4之后的人工智能开发。然而,Ng不赞成“暂停”。
虽然Hinton现在对AI的危险表示担忧,但他之前忽略了谷歌团队提出的道德问题。他将人工智能的潜在风险与二战期间原子弹的制造进行了比较,强调了利润驱动的人工智能发展的危险,这可能导致人工智能生成的内容超过人类生产的内容并危及我们的生存。
Hinton呼吁在人工智能研究面临不同意见时团结一致
然而,在与另一位人工智能先驱Andrew Ng进行深入探讨时,两人同意人工智能研究人员需要像气候科学家就气候变化达成共识一样,证明自19世纪后半叶以来地球温度显著升高。主要原因是人类行为引起的,主要是将温室气体排放到大气中。
“如果人工智能研究人员意见不一,那么其他人就更容易挑选符合其议程的意见,”Hinton补充道。意见相差很大甚至存在冲突派别。达成共识并不容易,但最好在一些主要的威胁方面达成共识,包括威胁的紧急性和危险性。这是因为政策制定者和决策者会向研究人员寻求技术意见。
迫切需要达成共识
讨论的另一个重要点是,研究人员需要紧急达成共识,即像ChatGPT或Bard这样的LLM聊天机器人是否真正理解他们在说什么,或者是统计结构,这是讨论的一个重要问题。虽然有些人认为他们理解,但其他人不同意。解决这个问题对于就人工智能相关问题达成共识至关重要。
评估理解的挑战在于确定系统中存在的适当测试。大规模语言模型和人工智能模型似乎正在构建一个世界模型,这表明它们有一定程度的理解。然而,这是个人观点。如果研究人员界进一步讨论这个界面并发展出共同的理解,可以促进更一致的推理并改善AI社区关于人工智能风险的风险理解。这种讨论的一个方面涉及到统计学,因为我们都认为统计学起着至关重要的作用。
然而,一些认为它只是统计学的人倾向于从编程或计算单词的共现频率的角度来思考。“我们认为,创建特征或嵌入的过程以及这些特征之间的相互作用超出了单纯的统计学,它涉及到理解”他补充道。
通过根据特征之间的复杂交互来预测下一个符号,我们可以预测下一个单词的概率。我个人认为,这个过程代表了理解,类似于我们的大脑所做的。然而,这是一个需要在研究界讨论的话题,以说服其他人这些系统不仅仅是统计结构,并且可以达成共识来解决与人工智能相关的风险。
他总结道:“更好地了解人工智能系统的理解能力,可能会使研究界更接近于得出类似的结论。”
来源:https://analyticsindiamag.com/geoffrey-hinton-raises-concerns-over-profit-driven-ai-development-urges-caution/