警惕AI 换脸冒充熟人诈骗
案例详情
企业老板李总突然接到“合作多年的供应商王总”的视频电话。视频中,王总面容焦急,称其公司因突发状况急需一笔200万元的周转资金,希望李总帮忙救急,一周内必定归还,还给出了一个看似十分紧急的打款理由,称如果不能按时转账,公司将面临巨额违约金,甚至可能破产。李总看到视频中王总的脸和熟悉的声音,没有丝毫怀疑,当即安排财务向指定账户转账200万元。然而,转账后李总越想越不对劲,便主动联系王总核实情况,这才发现王总的账号被盗,自己遭遇了AI换脸诈骗,200万元就这样打了水漂。
案例分析
诈骗分子利用AI换脸和语音合成技术,通过社交平台获取目标对象的照片、视频等素材以及其亲友的信息,精心伪造出逼真的视频通话场景。他们对受害者的人际关系和业务往来进行深入研究,抓住紧急事务的时机,让受害者在短时间内来不及思考和核实,从而达到骗取巨额资金的目的。
风险提示
1.多重身份核验:收到涉及资金转账的视频或语音通话请求时,务必通过其他独立渠道,如电话、短信等,与对方进行二次身份确认。可以询问一些只有彼此知晓的私密问题,或者要求对方做出特定动作、说出特定口令进行验证。
2.留意异常细节:在视频通话中,要留意对方的表情、动作是否自然流畅,是否存在画面卡顿、声音延迟等异常情况。如果对方总是回避一些关键问题,或者说话逻辑混乱,也需提高警惕。
3.强化信息保护:尽量减少在社交平台上公开个人照片、视频等敏感信息,避免给诈骗分子提供可乘之机。同时,设置复杂的账号密码,并定期更换,加强账号安全保护。




