AI偷脸,防不胜防
2023-08-18

近年来,随着科学技术水平的发展,AI换脸技术愈发成熟,应用的范围也越来越广。但有不法分子也盯上了AI技术,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤,多地警方已通报过有关AI换脸的诈骗事件。



Ø 花式诈骗:

1. 通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方;

2. 因人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认;

3. 通过提取语音文件或安装非官方版本(插件)的方式实现转发微信语音,进而骗取钱款;

4. 通过AI技术筛选受骗人群,别有用心地锁定特定对象


Ø 真实案例:

一、某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。


二、小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。


 


针对不法分子的通过AI换脸技术实施诈骗的行为,在我国刑法中有关于诈骗罪、敲诈勒索罪等规定,而民法典中有关于公民肖像权、姓名权、名誉权等的规定。即在此类案件中,受害人可以在事后通过刑事、民事等途径进行维权。此外,还有《互联网信息服务深度合成管理规定》指出,深度合成服务提供者和技术支持者违反规定,若构成违反治安管理行为的,由公安机关依法给予治安管理处罚。



 

但作为普通公民,如何识别与防范AI诈骗也极为重要。若在视频通话时,出现比如面部表情僵硬、音画不同步、视频跳帧、画面扭曲或声音卡顿不连贯等情形,可以要求对方使用手指或其他遮挡物在面前晃动,如果画面出现“果冻效应”或是抽搐,则很可能对方是使用了AI换脸技术。

古柏律师在此提醒您,防范AI诈骗,一是要从源头着手,做到保护个人信息;二是要多次核验对方身份;三是要谨慎转账,设置延时到账;四是提高警惕、加强防范,遇事及时报警。

地址:广东省珠海市香洲区春风路35-41号    电话:0756-2166610    邮箱:MAKGUTSANGLAWFIRM@163.com