AI诈骗手段花样翻新,如何用“魔法”打败“魔法”?

2024-03-05

导语:理财文化万里行,基金走进千万家。欢迎大家搜索【华夏基金投资者教育基地】,关注华夏基金投资者教育基地,解锁更多理财知识。

 

试想一下,如果有一天,手机里或者电话里传来你的亲人发来视频说买一样商品要你付款或找你借钱,你听到了声音、看到了人脸后,是否会相信这是真实的需求,从而会给对方转钱?

 

这样的情况近几年时有发生,随着技术的进步,诈骗手段也在升级,甚至用上了AI换脸、AI拟声技术。全新的深度合成技术(Deepfake)令人真假难辨,如何“以技术规制技术”、用AI反套路AI诈骗,更好地保护我们的“钱袋子”成为人们关注的话题。

 

                   AI诈骗面面观:不仅能模仿我的声音还能模仿我的脸

 

1.声音合成:

 

不法分子往往通过骚扰电话等方式,录音提取某人的声音,并对素材进行合成,用伪造的声音实施诈骗。骗子会通过拨打骚扰电话等方式,录音提取诈骗对象及其重要关系人的声音特征,利用特殊技术进行语音合成,使诈骗对象放松警惕,进而用伪造的声音实施诈骗。

 

案例

 

2023年夏季的一天,江苏警方接到了某工厂员工报警称,其同事可能遭遇诈骗。民警立刻赶到现场,发现被骗女子情绪激动,并不愿配合调查。民警一直坚持耐心劝导,终于在女子与骗子通话近3个小时后将其拦下。而就在刚挂断骗子来电后,女子的哥哥就打来电话询问是否是要向其借钱。民警立刻意识到这是一种利用AI技术进行诈骗,即骗子通过AI合成声音,甚至影像向受害人亲友借钱。同时,就在通话过程中,骗子还盗取了女子身份进行网贷。最终,民警联系网贷平台中断放款,帮女子成功挽回5万元损失。

 

2.AI换脸

 

俗话说,“耳听为虚眼见为实”,人们更容易相信眼前看到的东西,在日常交往中,人脸效果更易取得对方信任,不法分子就是利用人们这一心理,借用AI技术,进行换脸,经过技术处理后,可以伪装成任何人,再通过视频方式实施诈骗。

 

案例:

 

20234月份,发生了AI换脸诈骗案例,内蒙古包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

 

事情是这样的:2023420日中午,郭先生突然接到好友视频请求,好友声称自己的朋友在外地竞标,需要430万保证金,而且需要公对公账户过账,所以想要借郭先生公司的账户走账。因为是通过视频聊天,看到了对面朋友的真实面貌,也是基于对好友的信任,郭先生没有核实钱款是否已经到了自己的账户上,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话核实后,才知道被骗了。骗子正是利用AI技术进行视频换脸,并佯装好友对他实施了诈骗。

 

谈到被骗经过,“所谓的朋友从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生不误懊悔的说。

 

幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,就开始进行全力追缴中。

 

                              识别骗子的AI诈骗计俩

 

看到一个个令人痛心疾首的AI诈骗案例,普通人可能对AI诈骗的手段并不是很清楚,骗子是如何得到受害者信息的?又如何通过AI进行诈骗的?

 

实际上,骗子进行目标筛选时,也用了AI技术,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。然后在视频通话中利用AI换脸,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

 

当然,实施AI换脸也是一个技术活。

 

提及诈骗手段,AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。其背后最核心的包括为三个部分,首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。其次,将这些特征与目标人脸图像进行匹配、替换、融合。最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。

 

                         AI技术反制AI诈骗

                                           

综合上述案例发现,AI诈骗,说到底,是隐私信息泄露与诈骗陷阱的结合。因此,要从预防隐私泄露和用AI技术识破诈骗技术等方式反制,堵上数据漏洞、防微杜渐。

 

1.保护好个人隐私,谨慎透露个人信息

数据是AI犯罪的源头,因此,保护好公民的个人信息安全,就能在最大程度上降低AI违法犯罪。比如加大公民个人信息保护的宣传力度,相关部门也要需要进一步加强公民个人信息保护,尤其是加强对生物特征等隐私信息的技术、司法保护力度。

 

当然个人也要加强信息保护意识,在日常生活中,尤其是在社交媒体平台,要做到不随意下载陌生软件或添加陌生好友,对个人社交账户的安全状况保持警惕。避免在互联网过多暴露个人信息,诸如自己的照片、声音等。

 

2.AI技术反制诈骗

另外,我们也要“以彼之矛攻彼之盾”。不法分子利用AI等科技手段进行从事违法犯罪活动,我们也要善用科技手段进行反制,以其人之道还治其人之身。我们平时工作和生活中,互联网平台是个人信息的守护者,在保护个人信息方面具有责无旁贷的责任,应该大力发展和利用新技术,识别AI诈骗技术,加强对AI技术发布内容的甄别,而资讯等信息服务提供者,在对个人信息进行加工时,也要依法告知对方,征得本人同意后方可进行“编辑”,换句话说,AI软件必须经过本人授权才能进行视频和声音的生成,以防别有用心的人盗用或者从事其他不法活动。

 

3.金融机构建起防诈“防火墙”

AI诈骗,金融机构也是重中之重,通常情况下,对金融行业来讲,其最重要的目标是努力识别并及时进行拦截,做到努力实现被骗资金要拦得住、追得了、返得回。平时工作中,要加大宣传力度,特别是在行业治理方面,依法开展专项治理,全面排查、及时处置,避免成为AI诈骗新洼地。同时也要加大数字金融的建设,围绕存量账户、开卡、可疑交易等这些重点环节,不断完善实时风控模型,对精准研判出的涉诈银行账户实行有效管控。

 

总之,对于AI反诈,全民应该行动起来,共筑反诈坚实的防火墙。同时监管部门也要提高监管效率,更好规范人工智能技术有序发展,从而形成良性发展的生态闭环。

 

文章中案例来源:

 

1、AI换脸通话10分钟骗430万?记者调查:目前没这么容易!》,来源:京报网,2023.5.26

2、《警惕!骗子用AI合成声音诈骗受害人亲友》,来源:光明网,2023.6.13

 

投教基地简介


免责声明:文章内容不构成投资建议,请投资者独立决策并自行承担风险,过往业绩不预示未来表现,投资需谨慎,详阅基金法律文件。该文章仅限华夏基金投资者教育基地开展投资者教育,未经授权禁止第三方机构或个人以任何形式进行传播、剪辑。


免责声明:文章内容不构成投资建议,请投资者独立决策并自行承担风险,过往业绩不预示未来表现,投资需谨慎,详阅基金法律文件。该文章仅限华夏基金投资者教育基地开展投资者教育,未经授权禁止第三方机构或个人以任何形式进行传播、剪辑。

总访问量: