近年来,随着人工智能技术的进步,一些不法分子开始利用AI技术,融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗。
这类骗局常常会在短时间内给被害人造成较大损失,西安就曾发生过一起真实案例。
2024年2月份在中央电视台13台新闻频道报道了此类新闻,陕西西安财务人员张女士与老板视频通话,老板要求她转账186万元到一个指定账号。转账之后,张女士按照规定将电子凭证发到了公司财务内部群里,然而出乎意料的是,群里的老板看到信息后,向她询问这笔资金的来由。
意识到被骗的张女士连忙报警求助,警方立刻对接反诈中心,联系相关银行进行紧急止付,最终保住了大部分被骗资金156万元。
这是一起典型的AI诈骗案件,也是目前可能会在全国范围内爆发的一种新型诈骗方式。
目前该技术对我们普通人来说,识别难度较大。当然了其实AI人工换脸无论做得多逼真,想要识别真假还是有一些方法的。
1. 我们可以要求对方在视频对话的时候,在脸部的前面通过挥手的方式,去识别实时伪造的视频,因为它要对这个视频进行实时的生成和处理以及AI的换脸。在挥手的过程中,会造成面部的数据干扰。挥手过程中,他所伪造的人脸,会产生一定的抖动或者是闪现,再或是一些异常的情况。或者可以让对方摁鼻子、摁脸,观察其面部变化。如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。
2. 在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。
总之,不轻信陌生电话或视频。如果有陌生人或熟人通过电话或视频联系你,并要求你提供个人信息或转账汇款,要保持警惕,并通过其他方式核实对方身份;
不随意透露个人信息或资产情况。不要在网上公开或分享过多的个人信息或资产情况,如姓名、电话、地址、出生日期、银行卡号、验证码等,以免被不法分子利用;
不贪图小利或同情心。不要轻信陌生人或熟人给你介绍的投资理财项目、中奖信息、紧急救助等,并要求你转账汇款。如果有疑问或感觉异常,要及时报警求助;