首页 > 生活 >

和朋友视频一下,钱就没了,新型诈骗防不胜防

发布时间:2023-08-01 09:24:16来源:本站原创

2023年6月9日之前,河南高三学生吴小乐对高考后的生活有很多幻想。她以为自己即将进入不受家长管制、充斥着多巴胺的互联网世界。但没想到,等待她的首先是骗局。

6月9日高考结束,她在QQ上收到了同学的私信,称自己找不回某软件的密码,需要好友录音频和视频帮忙认证。

对方给她发了一段与她同学声音一模一样的音频。没多加怀疑,按照要求,她对着手机说“我是吴小乐,请相信”,拍了一个5秒的视频。

骗局开始。

半夜,吴小乐的脸和声音出现在了另一部手机上。

AI实时换脸技术/来源:中央广电总台中国之声

一位QQ好友收到了一通视频电话。实时的、会动的、声音一样的“吴小乐”向他借钱,于是他将仅有的几百元倾囊相助。

这些都是吴小乐第二天一早才知晓的事情。对方早已不见音讯,留下被骗者的愤怒与惊悚。她没想到自己遇上了电视剧里才有的技术——深度伪造(deep fake)。就像英剧《真相捕捉》中演的,各机构为了达到目的,使用AI合成人脸的深度伪造技术,让现实真假难辨。

一个月后,吴小乐仍对自己被“AI换脸”感到惶恐。她把上述归咎于自己是“互联网小白”。此前没接触过广阔的互联网世界,“太愚蠢了”。

只是,如果真实的人脸出现在视频、直播间里,多数人第一反应也将像高中生们一样,选择相信。

今年5月,因为如出一辙的套路,福州一公司老板10分钟内被骗430万元。

来源:《真相捕捉》剧照

没人会怀疑屏幕前的明星们是否为真人。因为深度伪造反复迭代的目的,就是让人无法验伪。

我由此踏上探究深度伪造技术的道路。

这段“学习经历”令人意外,它的门槛出奇得低,想“入手”的人却出奇得多。在大模型奔流的2023年,深度伪造成了中小商家、个体户最先上手的人工智能应用之一。

毫无疑问,世界愈加虚实难辨了。

AI导师

想学习深度伪造,难度并不大。

这些年,技术的进步有了最直接的受益者——自称懂AI换脸的“导师”们。

他们活跃在短视频、社交平台上,顶着“成龙”“马斯克”的脸直播、录像,像变魔术般让外行人惊叹。

找到这群AI导师们并不难。与一个微信名叫“AI导师”的人添加微信后,他首先对我发出提醒:“这个入坑条件有点高。”

他随后发了张价目表:“1980元,一对一,学会预计2天;2680元,保姆级,学会预计1天……”

只有购买超过2680元的套餐,才能被这名“导师”收作徒弟。

某AI导师的教学套餐价目表

相似的价目表出现在多位导师的聊天里,这些课程都指向了同一款实时换脸软件(为了谨慎传播该技术,本文以“X软件”代指),原因是其代码开源,且对电脑配置的要求不算高。

为了力证效果,第一位AI导师给我发送了两个徒弟“刘德华”的视频。

在一个面积不大的房间里,身着白色T恤衫的“刘德华”左右摆头,上下打量镜头。接着,无论他张大嘴巴,露出侧脸,还是用手拨弄头发,都没露出破绽。

还是那副让人怀缅青春的刘德华面孔。

视频里传来导师欣喜的画外音:“不错嘛,这和华仔有点像,再把灯光打一打,效果更好。”

几天后,这名AI导师在朋友圈更新了他的进展。

“如今用AI换脸,你眨眼、遮挡脸都没问题。还有更高级一些的,现在可以实时定制人物脸型。你觉得脸型太宽了,可以直接调小。更恐怖的是,即使直播,你也可以直接把皮肤揪起来。”

这是深度伪造技术多年来发展的巅峰。

这一技术首先在2017年被发明。一位名叫“Deep Fakes”的用户在Reddict发布了一个AI换脸明星的视频,并公布了其开源代码。AI换脸开始在英文互联网流行,次年传入中国。

Deep Fake(深度伪造)一词,从此与AI换脸深度绑定。

新技术的推出,一度骗过多个人脸识别系统。2018年,美国国防部研发出全球首款“反AI变脸刑侦检测工具”,以AI反AI换脸。据介绍,这个检测工具的原理发现,AI换的脸极少会眨眼,因为它们是使用睁眼照片训练出来的。

但近年来,随着代码不断更新,被AI换的脸早已能自动眨眼,具备各种真人的反应。

“你学会后,能给你带来变现和利润吗?你要清晰地考虑到这一点。”面对咨询,“AI导师”看出了我言语间的犹豫。

“没有的话,真没必要浪费时间与金钱。”

明星脸

想要用AI换脸挣钱的人很多。在一个560人的AI换脸技术交流群里,我遇到了程刚和莹莹。他们是群里最活跃的两个人,也是最希望赶快搭上AI换脸东风的商家。

程刚是毫无疑问的“技术小白”。手机用的是2018年推出的“小米Note 8”,现在售价不到500元。他很少用笔记本电脑,不会使用邮箱,导致人生之路经常与互联网潮水擦肩而过。

但这次的AI浪潮,他想抓住。2023年7月,他在网上看到一个介绍深度伪造的视频,内心开始萌动。视频里,主讲人拥有了成龙的脸,比着成龙标准的大拇指,介绍AI究竟如何换了这张脸。

程刚被这样的“成龙”震撼。

他想起了久久不见起色的短视频账号,心生一计:如果一段视频出镜的不是自己这种无名小卒,而是网红、明星呢?

他决定试一试,使用最低门槛的换脸工具。这样做的目的,他解释,为了省钱。在山东卖苹果多年,今年是淡季,他只能通过短视频吸引流量,线上销售。

“找个女的拿苹果,拍视频,以后(视频)就一直换明星脸,我觉得能行。”这是他当前的畅想。

莹莹也有相似的想法。她是新媒体运营者,手上有上千个服装厂家的渠道。她打算将换脸技术运用到服装上新时的模特拍照环节。

她来做后期,批量用AI给模特换脸,帮厂家省成本。

“我们这几千家服装厂,后续只要招几个大学生在电脑前(从事换脸),我就可以大规模接单了。”

群友提供的AI换脸图片效果

一说到这儿,莹莹就很兴奋。

只是,以她现有的技术水平,她发现漏洞不断,AI换的脸经常会出现违反人体规律的“废片”。

比如,“眼睛容易怪怪的,大小眼、三角眼”;

比如,“脖子和脸的像素、肤色不一致”。

一位名叫“红色气球”的导师跟我解释,AI换脸的效果与电脑的参数有关,“电脑越强,效果越好”。

除此以外,还与“底丹、(视频)素材”紧密相关。

“炼丹”,是这些换脸爱好者自己的交流方式。

好的人脸模型需要大量SRC(源视频)素材包进行投喂,使用专门的软件对AI预训练。这一过程就叫炼丹。

最好的炼丹效果,是拥有人脸多角度、多光源的素材。

在大量的源视频素材包投喂下,可以对AI进行专门训练/来源:中央广电总台中国之声

处理模型的电脑的GPU(图形处理器),被这群人称为“炉子”。

至于“底丹”,则是一个预训练好的模型。

“在这个底模上训练新模型,节省时间,更容易出效果。” 导师耐心地解释。

但问到如何获得底丹时,他的指导立刻变得明码标价。

“底丹,一个100。公开课100元一节,明星模型,一个100。”

他称手上有着多个训练好的名人模型,只要一键购买,将其嵌入某换脸软件,刘亦菲、马保国、普京、杨幂、赵今麦等名人,就栩栩如生地替换掉了摄像头前的人。

“给你看看‘刘亦菲’的。”他对自己训练的“神仙姐姐”尤其自豪,“但‘赵今麦’的,感觉效果就一般。”

许多带货主播换脸女明星/来源:锦州网警巡查执法

为了不付钱,我最终决定先试一下自学X软件。根据开源论坛的教程,安装大约耗时20分钟。下载完毕后,只花了30分钟调适,X软件自带的明星模型,便成功嵌入完毕。

出人意料地简单。

一小时内,我拥有了令旁人惊叹的成龙、刘玉玲、憨豆先生的脸。

AI换脸界面

用魔法打败魔法?

多位导师告诉我,面对客户,他们“不清楚、不过问”具体换脸后的用途,称这是“职业素养”。

真实的案例将深度伪造技术背后的角落曝光。

就在这个月,济南公安发布“7秒被AI诈骗”的案例。小伙子小冯收到亲戚“白某”的信息。与对方打了7秒视频电话后,他深信眼前的人是“白某”,给他转了30万。

让女性感到不安和恐惧的是,自己的脸随时可能出现在不见光的暗处。4月26日,网红博主“Caro赖赖”分享了自己被盗脸的经历。

她在过去半年听很多人说,看过她的“视频”。深感疑惑的她有一次点开粉丝发的视频,看见“里面的女生正做着一些难以描述的动作”。

“我看着视频里那张跟我长得一模一样的脸,愤怒得说不出话来。”

她决定去弄个明白,为什么自己的脸大量出现在那类视频里。

通过查看境外社交媒体,赖赖发现,有多个冒充自己的账号在搬运她的照片,“等到粉丝数差不多的时候,以会员订阅的方式贩卖视频”。

她同时发现这是一个完整的产业链。

“我曾看到一个网红名单,表里密密麻麻写满了我熟悉的名字。他们根据博主的粉丝量级进行分类,假视频价格在30~50元不等。”

这些细节都让赖赖感到自己受到了极大的侮辱。

背后更让人感到恐惧的是,愈加逼真的AI换脸已经模糊了虚实的边界。

瑞莱智慧RealAI联合创始人、算法科学家萧子豪介绍说,最近的发展中,迁移学习和生成模型成为图像和语音合成的重要方向。

技术软件开发者与记者的聊天截图 /来源:中央广电总台中国之声

“这些技术方法的进步,极大地提升了(AI换脸)生成的质量,生成的速度也在不断地提高。”

对此,“用魔法打败魔法”,即使用AI反AI,成为业内破除深度伪造的主流手段。

萧子豪创立的公司,近日推出了生成式人工智能内容检测平台。他解释,AI的辨别思路大致是寻找图像编辑痕迹。

“一般来说,这类换脸都会对原先的人脸进行编辑,过程中会有类似图片编辑的操作并且留下痕迹。这类痕迹和真正拍摄的不一样。”

“此外,我们还会检测视频中是否展现出不符合常识的行为,如长时间不眨眼。”

但是,也有业内人士对这一理念提出反对意见。创新工场AI子公司CTO张发恩曾指出,用AI识破AI是个伪命题。

他认为,AI换脸的一种训练方式叫生成辨别对抗训练。在这种方式下,有两个AI模型,一个是“造假”模型,一个是辨别模型。当“造假”模型产出的内容越来越逼真,辨别模型就无法辨别真假。

萧子豪也承认,随着换脸技术的提升,识别AI换脸的“防御技术”需要持续验证和优化,经历博弈提升的过程。

通过视频确认对方的方法在变得不可靠/来源:济南刑警

同时,“在互联网的传播环境中,AI换脸的数据会有意无意地变化,比如数据会被压缩。这会给原本的伪造痕迹带来变化,给识别增加难度”。

连AI与AI的博弈都变得艰难,普通人似乎在大浪潮中难以为继。

萧子豪说,如果在现实生活中遇到疑似AI换脸的,可以在视频时有意识地引导对方做一些动作,比如大幅度地摇头或张嘴。当骗子技术手段较弱,便有可能发现对方面部边缘或者牙齿的瑕疵。

不过,这个方法对识别“高水平”的不法分子存在难度。因此,“可以追问几个只有你们之间知道的私密信息,核实对方的身份”。

萧子豪建议,AI换脸的时代,普通人除了防止自己上当,还要注意保护个人图像,尽量避免在公开平台大量晒自己的照片和视频。

“因为,深度伪造的原材料是个人音频、图片、视频。数据越多,训练的视频也越逼真。”

愈加难以鉴别的现实,需要人们重塑和更新对视频、音频文件的认知。

被AI诈骗的高中生吴小乐告诉我,被骗后最大的教训是她第一次认识到,“连视频都可以被伪造”。

她像所有被AI换过脸的人一样,想找出幕后真凶。

只是,结局与网红赖赖相似。

用AI换脸的诈骗账号已经注销或者在海外,消失得无踪无迹,警察也无能为力。

没人知道,自己的脸下一次会出现在哪儿。

(责编: xuehui)

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。