Skip Header

警惕AI诈骗,守护好钱袋子

据央视网等多家媒体报道,近期香港警方披露了一起多人 “AI换脸”诈骗案涉案金额高达2亿港元。在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元分别转账15次,转到5个本地银行账户内。其后向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。

此外,近期在陕西西安也发生了一起“AI换脸”诈骗案例。财务人员张女士与老板视频通话,老板要求她转账186万元到一个指定账号。被害人张女士称老板指示她把款项尽快转过去,要得非常急,因为声音和视频图像都跟老板一样,所以张女士确信这笔款项是老板要求的。转账之后,张女士按照规定将电子凭证发到公司财务内部群,出乎意料的是,群里的老板看到信息后,向她询问这笔转账的来由。张女士随后打电话同老板核实,老板说没有向其发过视频,也没有指示过这笔“转账”。意识到被骗的张女士连忙报警求助,警方立刻对接反诈中心、联系相关银行进行紧急止付,最终保住了大部分被骗资金——156万元。

以上发生的真实案例均涉及利用AI技术诈骗,给大家敲响警钟。专家称“AI换脸”过程主要包括人脸识别、追踪面部特征提取、人脸变换、融合背景环境渲染、图像与音频合成等几个关键步骤。其背后核心的技术包括三个部分:利用深度学习算法精准地识别视频中的人脸图像,并提取如眼睛、鼻子、嘴巴等关键面部特征。将这些特征与目标人脸图像进行匹配、替换、拟合。通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。

如何识别AI“换脸换声”诈骗,守护好钱袋子

大家对AI换声换脸诈骗行为保持警惕的同时,如遇可疑情形可以综合使用多种方式确认对方身份真实性,以下为一些可供参考的手段。

  1. 问一些只有对方知道的问题,验证对方身份的真实性。
  2. 通过手机号码通话等其他联系渠道核实真实性。
  3. 可以要求对方在视频对话的时候,根据指令做一些动作以识别异常情况,比如在脸部的前面通过挥手的方式,去进行识别伪造的视频。据专家称AI技术要对视频进行实时的生成处理和AI换脸。在挥手的过程中,会造成面部数据的干扰。挥手过程中,伪造的人脸会产生一定的抖动或者闪现,或者出现其他异常的情况。

如何提高防范意识

首先,做好日常信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护。做好个人的手机、电脑等终端设备的软硬件的安全管理。

第二,不登录来路不明的网站,不下载和安装来源不明的应用程序,以免被病毒侵入,造成个人身份信息、生物特征信息泄露。

第三,对可能进行声音、图像甚至视频和定位等信息采集的应用程序,做好授权管理,不给不法分子收集自己信息的机会。