人工智能聊天机器人:好的、坏的和丑陋的
2023年05月18日 由 Samoyed 发表
503677
0
DataSolutions的 Francis O’Haire表示,谷歌的Bard和OpenAI的ChatGPT之间的竞争会促进人工智能技术的进步。
人工智能聊天机器人引起了媒体的极大兴趣。当OpenAI在2022年11月推出ChatGPT时,它被许多人视为技术上的重大突破——一种能够为用户提供跨越多个知识领域的详细回复和连贯答案的人工智能。但就像所有突破性的技术进步一样,它既有积极的一面,也有消极的一面——分裂原子既带来了廉价能源的希望,也带来了核毁灭的威胁。
事实上,即使是大型科技公司的领导者,在各自对人工智能的看法上也走到了十字路口。此前有消息称,Bill Gates批评了Elon Musk和1000多名科技领袖,这些人担心人工智能可能会毁灭人类,希望暂停发展人工智能。Gates认为,停止类似ChatGPT的系统的发展并不能解决任何问题——那么,行业领导者应该关注什么,又如何利用这一领域的新技术呢?当谈到聊天机器人技术时,“好”的部分显然是最重要的,那么“坏”和“丑”的部分呢?
被用于犯罪
今年3月,欧洲刑警组织发布了一份报告,展示了ChatGPT如何被用于犯罪。该报告的一个关键观点是,“虽然ChatGPT提供的所有信息都可以在互联网上免费获得,但通过询问上下文问题来使用该模型提供的具体步骤意味着罪犯可以更好地理解并实施各种类型的犯罪。”例如,网络钓鱼通常会在信息的真实性方面受到罪犯能力的限制——您会看到错误的拼写和语法,或者虚假的品牌。但是像ChatGPT这样的技术可以极大地帮助罪犯快速并且大规模地生产看起来更专业的网络钓鱼电子邮件,并且消除了前面提到的缺点。
此外,ChatGPT可以生成计算机代码,而不需要使用者有强大的编程背景。虽然有适当的保护措施来限制创建恶意代码,但到目前为止,这些保护措施尚未被证明是万无一失的。巧妙地提出的问题操纵人工智能可以让它产生一些它不应该产生的东西。 Check Point Research最近记录了一个网络犯罪分子利用ChatGPT来提高现有恶意软件的效力例子。
制造假新闻
我们经常听到“假新闻”。人工智能已经证明自己能够根据用户的要求产生逼真的照片和图像。这些可以用于宣传虚假信息或假新闻,以促进不良的个人、团体、甚至政府的议程。最典型的例子是前总统特朗普被警方暴力逮捕和拘留的假照片。我们不要忘记deepfakes。其中很多都是色情的——研究表明,在这些经过处理的照片中,有99%的人把女明星的脸映射到了色情明星身上。还有一张不那么煽动性,但却引人注目的假照片,教皇Francis 穿着一件令人印象深刻的设计师外套,这张照片在网上疯传,欺骗了世界上很多人。
随着谷歌推出Bard与ChatGPT竞争,聊天机器人领域将变得越来越繁荣,这只会促进人工智能技术的进步,并继续为正确的事做出贡献。毕竟,人工智能和机器学习多年来一直是好的工具,最近ChatGPT、Bard和其他新工具的快速发展无疑也会被很好地使用。在商业领域,具有人工智能和机器学习功能的聊天机器人可以帮助企业大规模地重新定义客户服务。它们可以在短时间内处理数千个客户查询,并且提高平均响应时间。它们还可以帮助企业在回答问题时保持一致性,并改善客户对品牌的体验——它们甚至可以支持多种语言。
我们已经看到网络安全厂商广泛使用这些技术来抵御黑客,并为超负荷的网络安全团队减轻工作压力。像ChatGPT这样的人工智能可以成为帮助人们应对越来越复杂的威胁的非常强大的工具。
毕竟,如果坏人找到了使用这项强大的技术的方法,那么我们其他人也必须这样做,以创造公平的竞争环境。