用Deepfake应用程序的AI欺诈监测来对抗AI

2023年05月18日 由 Camellia 发表 410026 0
对Deepfake的概述,以及它们是如何被用来实施金融欺诈的。

多年来,Deepfakes一直是数据科学界的一个热门话题。早在2020年,《麻省理工科技评论》就认为,深度伪造已经达到了“主流群体使用的临界点”。

无疑,数据肯定了这一点。据《华尔街日报》报道,2018年在网上发现的深度伪造不到1万个。现在这些数字达到了数百万,而且有许多现实生活中的例子表明,深度伪造被用来混淆和误导信息,以及使金融欺诈持久化。

[caption id="attachment_50884" align="alignnone" width="800"] 图片来源:Tima Miroshnichenko[/caption]

Deepfake技术为网络犯罪分子提供了许多先进的选择。

它们远远超出了在“不容错过的”比特币优惠的宣传材料中插入名人图像的能力,当然,这也是一个骗局。Deepfake视频尤其容易受到欺诈者的关注。Deepfake视频为他们提供了一种通过自动检查ID和KYC的方法,事实证明这种方法非常有效。

2022年5月,The Verge报道称,银行和其他机构用来帮助验证用户身份的“活跃度测试”很容易被深度伪造所欺骗。相关研究发现,90%的身份验证系统都有漏洞。

那么答案是什么呢?我们是否正在进入一个网络犯罪分子可以轻易利用deepfake技术来绕过金融机构的安全措施的时代?这类企业是否不得不抛弃他们的自动化系统,而恢复到人工、人力检查?

简单的回答是“可能不会”。就像犯罪分子可以利用人工智能的飞速发展一样,他们的目标公司也可以。现在让我们看看脆弱的企业如何用人工智能来对抗人工智能。

Deepfakes是如何工作的?


Deepfakes是使用一系列人工智能技术制作的,例如:

  • 生成性对抗网络(GANs)

  • 编码器/解码器

  • 一阶运动模型


从表面上看,这些技术可能听起来像是机器学习社区的专属,具有很高的门槛,需要专业的技术知识。然而,就像AI的其他元素一样,随着时间的推移,它们变得越来越容易获得。

低成本、现成的工具现在允许非技术用户创建深度伪造,就像任何人都可以注册OpenAI并测试ChatGPT的功能一样。

就在2020年,世界经济论坛报告称,创造“最先进的”deepfake的成本不到3万美元。但在2023年,沃顿商学院教授Ethan Mollick通过推特上一条疯传的帖子透露,他在6分钟内制作了一个自己发表演讲的深度伪造视频。

Ethan Mollick的总花费为10.99美元。他使用了一项名为ElevenLabs的服务,几乎完美地模仿了他的声音,费用为5美元。另一项名为D-ID的服务,每月收费5.99美元,仅根据脚本和一张照片就能生成视频。他甚至还使用ChatGPT来创建脚本。

当deepfakes刚开始出现时,主要关注的是虚假政治视频(和虚假的色情内容)。从那时起,世界见证了:

  • BuzzFeedVideos制作了一个深度伪造的公益广告,“主角”是演员Jordon Peele扮演的Barack Obama。

  • 一个深度伪造的YouTube视频,据称是Donald Trump在讲驯鹿的故事。

  • 《周六夜现场》上播放了Hilary Clinton的一段深度伪造视频,实际上她是由一名演员假扮的。


虽然这些例子展示了deepfakes“有趣”的一面,或许也让人们对这项技术的能力有了一些真实的认识,但欺诈者并没有浪费任何时间将其用于邪恶目的。

现实生活中使用deepfake技术进行欺诈的例子有很多。

深度欺诈造成的损失从数十万到数百万不等。2021年,一个人工智能语音克隆骗局被用来筹划3500万美元的欺诈性银行转账。这是一个巨大的经济收益,甚至不需要使用视频。

人工智能输出的质量,尤其是视频,可能会有很大的差异。 有些视频对人类来说显然是假的。但是,如上所述,过去的事实证明,银行和金融科技公司使用的自动化系统很容易被愚弄。

随着人工智能能力的不断提高,这种平衡可能会进一步转变。 最近的一项发展是“反取证”的结合,将“针对性的不可见的”“噪声“添加到深度伪造中,试图欺骗检测机制。

那么我们能做些什么呢?

用AI对抗AI:检测deepfake欺诈


就在欺诈者试图利用最新的人工智能技术获取经济利益的同时,科技公司等企业也在努力寻找利用技术抓捕罪犯的方法。

以下是一些公司使用AI对抗AI的例子:

2022年末,英特尔推出了一款基于AI的名为“FakeCatcher”的工具。 据报道,英特尔报告的可靠率为96%,它使用了一种称为光电容积描记法(PPG)的技术。

这项技术利用了人工生成视频中没有的东西:血液流动。该深度学习算法通过对合法视频进行训练,可以测量血管吸收或反射的光线,因为血液在身体各部分流动时,血管的颜色会发生变化。

FakeCatcher是英特尔Responsible AI计划的一部分,被描述为“世界上第一个实时深度伪造检测器,在几毫秒内回送结果”。这是一项创新技术,可以寻找视频中显示的人是否是真正人类的迹象。它寻找“正确”的东西,而不是通过分析数据来突出“错误”的东西。这就是它表明赝品的可能性的方式。

与此同时,布法罗大学的计算机科学家一直在研究他们自己的deepfake检测技术。它使用了狂热的PC游戏玩家所知道的需要巨大处理能力才能模仿的东西:光。

布法罗大学声称,这款人工智能工具可以观察光线在拍摄对象眼中的反射情况,对假照片的识别率为94%。角膜的表面起着镜子的作用,并产生“反射图案”。

这表明,人工智能系统模仿真正的亮点将是“非同小可”的。为了体验逼真的照明效果而经常投资于最新的光线追踪显卡的PC游戏玩家,会本能地认识到这里的挑战。

基于AI的欺诈检测挑战


也许最大的欺诈检测挑战是欺诈者和那些致力于挫败他们的人之间无休止的“猫捉老鼠”游戏。 在上述公告之后,人们很有可能已经在致力于构建可以避开和击败此类检测机制的技术。

这种机制的存在也是一回事,但看到它们经常被整合到企业使用的解决方案中又是另一回事。早些时候,我们提到了一个统计数字,它表明90%的解决方案可以“轻易被愚弄”。可能还有一些金融机构仍在使用此类系统。

明智的欺诈监测策略要求公司将目光放在检测深层伪造本身之外。在欺诈者深入系统参与基于视频的ID验证或KYC流程之前,可以做很多事情。在这个过程中更早找到位置的预防措施也可能涉及人工智能和机器学习的元素。

例如,机器学习既可用于实时欺诈监测,也可用于创建规则集。这些可以查看历史的欺诈事件,检测人类很容易错过的模式。被视为高风险的交易可以被直接拒绝,或者在可能进行ID检查的阶段之前就转为人工审查,因此这也是欺诈者利用deepfake技术的机会。

系统发现网络罪犯的时间越早越好。他们继续犯罪的可能性更小,企业在进一步检查上的花费也更少。即使没有结合AI技术来检测深度伪造,基于视频的ID检查成本也很高。

如果欺诈者能够在他们走到那一步之前就被识别出来,利用数字足迹等技术,将有更多的资源可用于优化对更多边缘案件的检查。

AI在欺诈检测中的未来


随着时间的推移,机器学习的本质决定了它在检测异常情况和打击欺诈方面会变得更好。由AI驱动的系统可以从新的模式中学习,并有可能在过程的早期阶段过滤掉欺诈性交易。

当谈到deepfakes时,上面的例子给了人民一个特别的希望。科学家们已经找到了一种利用光反射来检测绝大多数deepfakes的方法。像这样的事态发展代表着在预防欺诈方面向前迈出了一大步,也是网络犯罪分子面临的一大障碍。

理论上来说,部署这种检测技术比欺诈者找到绕过它的方法要容易得多——例如,以速度和规模复制光的行为。“猫捉老鼠”的游戏似乎可能会永远持续下去,但至少在理论上,拥有资源和雄厚的财力的大型科技公司和大型金融公司可以保持一小步的领先。

 

 
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消