日前,全国多地警方发布了多个“AI诈骗”的典型案例,案件披露后,“AI诈骗正在全国爆发”话题一度冲上热搜第一,引发网友热议。
(资料图)
如果你以为这样的诈骗成本高昂,那你就错了。换脸诈骗仅需正面半身照即可换脸,成本低至数十元。但是它的欺骗性却奇高,足以以假乱真。
两起案件掀开新骗术
继包头警方发布“福州市某科技公司法人代表郭先生10分钟内被人用AI换脸诈骗430万元”后,5月25日,安徽警方也通过当地媒体披露了一起类似案件,诈骗分子使用了一段9秒钟的智能AI换脸视频,佯装“熟人”,导致安庆经开区的何先生被诈骗245万。
在郭先生的案例中,“好友”通过微信视频联系他,表示自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。郭先生转账后拨打好友手机,才知道被骗。
而在何先生的案例中,其微信“好友”突然向其发起视频通话,手机接通后,何先生看到“好友”正在一间会议室内,并借故会议有事,通过QQ要求周转资金,导致何先生被骗。
有专家表示,此类AI换脸的诈骗手段都是定向针对性诈骗,而非传统意义上“广撒网,打打手机”的电信诈骗,往往干的也都是“大单”。源头上需要防止账号被盗用,不要轻易加陌生人,也要防止其他人用小号加你,过一段时间改成你亲友,然后再实施诈骗。
诈骗背后野蛮生长的行业
“众女星换脸女儿国国王谁更适配?杨超越、迪丽热巴……”在B站上,这样的明星换脸视频播放量往往突破10万次。除明星换脸外,电商平台上有商家抓住了人们对过世亲人的思念,推出“AI想念的人”等视频合成服务,一条合成视频收费50元,月销量超40件。
在这样的交易中,需要搜集大量的面部识别信息,而这恰恰是用户最核心的个人信息。个人信息一旦被比对之后,如果落到不法分子的手里,极易威胁到财产安全和人身安全。
其实,AI换脸技术并非直到近期才成熟。早在2019年起该技术就风靡全球。2019年换脸技术DeepFake一出现便引发了巨大伦理和法律争议,但彼时的技术已经证明,“一键换脸”起码从技术上来看,并不存在什么门槛可言。
不过,技术的细节迭代还是发生了。比如相比此前肉眼能够比较轻松识别、在生成式AI技术浪潮爆发的当下,AI换脸正在越来越变得毫无痕迹。
业内专家认为,随着AI技术发展越来越快,研究越来越深,AI换脸、换声音,破绽会越来越小。AI诈骗亟待更高层面监管,比如监管部门应该建立专门的人工智能安全机构,监督AI技术在不同领域内的应用。技术企业也应该加强数据合规建设,在人工智能设计中嵌入个人信息保护机制,并采用技术措施和管理制度,确保个人信息安全。现在已经到了大规模、集中化讨论AI风险的关键时刻。
图灵三巨头之一、蒙特利尔大学的教授Yoshua Bengio此前曾公开表示对AI技术的担忧。他在解释自己为什么签名赞成暂停超强AI研发时说,自从ChatGPT发布以来,大家发现不那么谨慎守规矩的玩家会有竞争优势,如果是这样的话,通过降低谨慎和道德监督的水平,就更容易出头。
防骗有技巧
识别对方是否AI换脸,也有一些小技巧可以应用。AI换脸目前在连续动作的实时渲染方面还是会存在技术缺陷,比如在说话的时候嘴部动作、眼部动作,如果仔细看都会存在一定的“不和谐”情况,如丢帧、嘴巴时大时小等问题。
此外,“AI假脸”的纹理特征也存在破绽。例如,伪造后的视频人物的眼睛或牙齿轮廓细节容易不一致;两只眼睛瞳孔的颜色不一样或瞳孔中心反射的细节不一样;很多伪造视频由于视频分辨率低于原始视频,伪造出来的视频牙齿边缘过于整齐等。
不过,没有经过训练的普通人想要用肉眼识别视频是否为AI合成,难度极高。骗子甚至不会给你详细判断的机会,几秒就挂断。公众与其花费大量精力分辨骗子发来视频的真假,不如在有怀疑时直接换一种渠道验证对方身份,业内称为“双因子身份验证”。比如好友视频聊天后要求转账,你就拨打对方手机号码再次确认;对方使用微信谈论交易,你就不妨用QQ再找他问问。多渠道验证要比肉眼分辨视频容易得多,也可靠得多。