壹现场丨“AI换脸技术”被滥用伪造不雅视频牟利涉嫌犯罪(2)

2023-04-25 来源:飞速影视
北青-北京头条记者发现,截至目前,网上仍有很多提供程序、教程甚至代做服务的商家。有店家称,一张照片就能做成高清动态换脸视频。“一条视频,一块九毛八。多条还可以优惠。”
分析
AI变声换脸诈骗也登场 警方揭秘
此外,这项技术还成为新型诈骗手段。江苏常州一90后小伙就因好奇和骗子“过招”被骗11万。他明知可能遇到了裸聊骗局,但出于好奇想看看骗子是怎么骗钱的。结果只因露了一下脸,就被骗子的AI换脸技术坑了。骗子给他AI换脸伪造了一段“裸聊视频”……
骗子还发来他的手机通讯录,告知如果不花钱消灾,就让他在家人朋友面前抬不起头。无奈小伙将仅有的11万全部转账后,骗子才罢休。
AI不仅能换脸甚至能变声。北青-北京头条记者梳理公开报道发现,警方就曾对AI诈骗常用手法进行了揭秘。
所谓声音合成就是骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。比如,2020年12月,某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
警方表示,骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。
相对来说,人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。在一起案例中,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
警方表示,面对利用AI人工智能等新型手段的诈骗,要多重验证,确认身份。目前,AI换脸难以肉眼区分。因此,在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。
保护信息,避免诱惑也很重要,要加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
此外,还要做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
相关影视
合作伙伴
本站仅为学习交流之用,所有视频和图片均来自互联网收集而来,版权归原创者所有,本网站只提供web页面服务,并不提供资源存储,也不参与录制、上传
若本站收录的节目无意侵犯了贵司版权,请发邮件(我们会在3个工作日内删除侵权内容,谢谢。)

www.fs94.org-飞速影视 粤ICP备74369512号