GPT-3如何误导人类?研究揭示了它的弱点和对策

2023年06月29日 由 daydream 发表 951084 0
最近,苏黎世大学的研究人员进行了一项研究,深入探讨了AI模型的能力,特别关注OpenAI的GPT-3,以确定它们在生成和传播(虚假)信息方面的潜在风险和优势。



由博士后研究员Giovanni Spitale和Federico Germani以及苏黎世大学生物医学伦理和医学史研究所(IBME)所长Nikola Biller-Andorno领导,该研究涉及697名参与者,旨在评估个人是否可以区分虚假信息和以推文形式呈现的准确信息。

此外,研究人员旨在确定参与者是否可以辨别推文是由真正的Twitter用户撰写的,还是由高级AI语言模型GPT-3生成的。涵盖的主题包括气候变化、疫苗安全、COVID-19大流行、地平说以及癌症的顺势疗法治疗。

该论文发表在《科学进展》上。


人工智能创造的假新闻的例子


AI驱动的系统可能产生大规模的虚假信息传播活动

一方面,GPT-3 展示了生成准确信息的能力,与真实 Twitter 用户的推文相比,这些信息更容易理解。然而,研究人员还发现,这种AI语言模型在产生高度具有说服力的虚假信息方面具有令人不安的天赋。让人担忧的是,参与者无法可靠地区分由GPT-3生成的推文和真实推特用户编写的推文。

研究人员Federico Germani表示:“我们的研究揭示了人工智能既能够提供信息,又能够误导,这引发了关于信息生态系统未来的关键问题。”

这些发现表明,基于良好结构化的提示并经过训练人员评估的GPT-3生成的信息传播活动,例如在公共卫生危机中需要向公众快速明确传达信息,可能会更有效。这些发现还引发了对人工智能可能持续传播虚假信息的严重担忧,特别是在危机或公共卫生事件中,虚假信息和不实信息迅速广泛传播的背景下。

该研究揭示了人工智能驱动的系统可能被利用来在潜在的任何话题上生成大规模的虚假信息传播活动,不仅危及公共卫生,还危害到对功能民主体系至关重要的信息生态系统的完整性。


人工智能创造的真实新闻示例


强烈建议积极进行监管

随着人工智能对信息创建和评估的影响变得越来越明显,研究人员呼吁政策制定者通过严格的、基于证据的和道德的法规来应对这些颠覆性技术带来的潜在威胁,并确保人工智能在塑造我们的集体知识和福祉中得到负责任的使用。

Nikola Biller-Andorno表示:“这些发现强调了积极进行监管以减轻人工智能驱动的虚假信息传播活动可能带来的潜在危害的重要性。认识到与人工智能生成的虚假信息相关的风险对于保护公共卫生,在数字时代维护一个强大可信的信息生态系统至关重要。”

 

来源:https://techxplore.com/news/2023-06-gpt-disinforms-humans.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消