调查|不法分子盯上老年人,“AI换脸换声”难以辨别
丝瓜网小编提示,记得把"调查|不法分子盯上老年人,“AI换脸换声”难以辨别"分享给大家!
一位老人接到电话,对方自称是其战友,说自己因生病想借钱。老人熟悉这位战友的声音,先后汇款2000元、8000元到对方银行账户。没想到,钱刚到对方账户,“战友”就消失了,老人这才发现自己被骗了……近日,一则“声音合成”骗局登上了热搜。
随着AI(人工智能)合成技术日益发展,一些不法分子也开始利用其向老年人实施诈骗。“AI换脸换声”难度大吗?能有多逼真?记者进行了调查。
诈骗
“外孙”打电话来要钱
“你姥姥接到了一个电话,是你表哥的声音,说是闯了祸,问你姥姥、姥爷要钱。”不久前,正在国外留学的小张从妈妈口中得知,姥姥接到了一通电话,有人用“表哥”的声音说,自己把同学打进医院了,要赔十几万元。“表哥”以此向姥姥、姥爷要钱,还让他们千万不要告诉自己的妈妈——也就是小张的大姨。
“我姥姥、姥爷大吃一惊,但还是信了。不过,觉得不能不告诉其他人,于是告诉了我妈。”小张解释道,两位老人日常是独自生活,只有小张的母亲每周去看望几次。由于两位老人习惯于什么电话都接,此前就遇到过诈骗电话,这让一家人始终提心吊胆。
小张觉得电话那头是骗子,“声音肯定是合成的”。初步推断后,小张给正在外地上学的表哥打了多个电话,终于取得了联系。原来,表哥正平安无事地打着游戏,对于姥姥接到的电话也全然不知。
“那就是骗子无疑了。”小张叮嘱表哥亲自给姥姥、姥爷打了电话,向他们说清楚来要钱的并不是他本人。“我大姨也打了一个电话,告诉他们涉及钱的事情肯定是由大人来说的,这样的电话不要信。”
“鸡飞狗跳折腾了一圈,安抚了惴惴不安的我妈,叮嘱了不听劝的姥姥、姥爷。一到涉及晚辈的事,这两位知识分子就跟喝了迷魂汤似的。”小张无奈地说。
“我大学同学还被合成过视频通话。”除了“AI合成语音诈骗”,欺骗性更强的“AI合成视频诈骗”则更让人担忧。对于这些针对老年人骗局,小张感到十分愤怒,但又不知该如何杜绝。
乱象
假博主只为真“圈钱”
保护好了手机号,就能避免被人利用AI技术“圈钱”吗?在互联网上,还有很多博主利用假视频来吸引流量、虚假宣传。
“有福气的奶奶您来了……”一个幼童双手合十,讲着一大段“正能量”语录,这样不符合常理的视频,却获得颇高人气。打开评论区,有不少头像为中老年人的账号留言称赞“小孙子说得好”。
“这类视频播放量高,涨粉快。”相关视频博主介绍,除了儿童形象,智者老人、外国人等形象说语录的视频也受欢迎。“粉丝以中老年人为主。”
“很多人问我,为什么不回国发展,要在中国待着……”视频中,一位名叫“Wendy”的“外国女孩”用流利的中文侃侃而谈。和她用着“同一张脸”的账号有好几个,有的叫“阿琳娜”,有的叫“娜塔莎”。事实上,这些账号的“脸”都来自一位乌克兰网红博主Olga Loiek。不久前,Olga Loiek发布视频称,她的面孔被他人盗用,并利用AI技术生成了视频。
在短视频平台上,这类假冒外国人的账号还有不少。他们或发表鸡汤语录,或讨论争议性话题,以此为噱头来吸粉。3月27日,抖音发布《关于不当利用AI生成虚拟人物的治理公告》,针对站内仍有不当使用AI技术生成虚拟人物发布内容的账号进行处置。但目前平台上依然存在相关账号和视频。
点进这些账号的主页,其中很多写着“收徒”“合作”,并附有联系方式。记者加上一个微信后,对方发来了数字人生成教程的信息,其中包括AI最新玩法等内容,报价1288元。这位商家还向记者强调,AI和短视频结合的“威力”很大。“现在流量就是钞票,你会搞流量还怕不能盈利吗?”
记者注意到,此类账号靠虚假视频骗取信任,积累一定量粉丝后,往往就开启了带货之路。有些“博主”出售各类生活用品和食品,还有博主卖起了所谓的“保健食品”。其中,有账号出售的一款氨基酸复合维生素,页面中宣传“唤醒肌肤弹力”“畅享年轻态”等作用,暗示有美容等功效。从商品详情可以看出,该产品为特殊膳食用食品,是为了满足特殊人群的营养而专门加工的食品,专为特定人群提供营养,并非是保健食品。
体验
一句话即可克隆声音
利用AI技术来换脸换声、合成视频的难度大吗?实际上,使用门槛和技术门槛都不高。
记者以“AI克隆声音”“AI视频生成”等为关键词在电商平台搜索,出现不少提供相关服务的商家。有些提供专业的声音定制模型,价格需要几百元到数千元不等。有些则直接出售相关教程,部分价格低至9.8元。商家表示,这类教程适合于对AI这类工具感兴趣的人,并且愿意学习和摸索。
即便是没有任何技术背景也没关系,目前市面上已经有多款软件可以快速实现AI换脸、AI克隆声音、数字人生成等功能。在一些主流的拍照、视频软件中,也推出换脸特效,只要上传自己的照片,就可以生成换脸照片、视频。
在一款生成视频数字人的软件中,提供了电商、金融理财、医疗保健、教育培训等领域的数字人视频素材,输入文字即可合成配音。此外,还可以利用照片定制专属的数字人形象,生成视频。
这类几分钟即可生成的AI换脸视频、数字人视频制作较为粗糙,看起来“一眼假”,但却在很多短视频平台上被网友信以为真。一位制作相关视频的博主直言:“很多中老年人根本分辨不出来。”
AI克隆声音实现起来更为简单。记者下载了一款可以AI克隆声音的软件。打开后根据提示,只需要提供某人一句话的声音素材,即可生成“专属克隆声音”,随后输入任何文字,发出的都是这个人的声音。记者体验发现,多款软件都可以轻松克隆。尽管有部分软件提示“若使用他人声音,请确认已获取他人授权”,但平台并无法限制声音来源。
测试
10位老人均未能分辨
“虽然听说过这种克隆语音,但真能做成和真人一样吗?我有点不信。”记者在采访中了解到,有不少老人没听过AI合成的声音,想象不出其与真人说话的相似程度。为此,记者利用三款不同的软件,分别生成了一段语音,又录制了一段真人语音,随机向10位老人进行了测试。
“第一段挺柔和的,像是真人说话”“最后一段接近人的嗓音”……老人们听完四段语音,从中选择“真人声音”,并且给出了判断的理由。结果显示,参与测试的老人都没能在四段语音中成功辨别出“真人”。
即便是熟悉的人的声音,老人也很容易被迷惑。记者特意用蔡大爷孙女的声音,同样制作了一组语音来测试。第一段合成语音播放后,蔡大爷立刻说:“这是我孙女说的!”四段语音播放完毕,蔡大爷对每一段都感到熟悉和亲切,“我听着都是她真人说的,不像用电脑合成的。”
AI合成的声音、照片、视频,有办法辨别吗?记者了解到,语音可以流畅度、自然度来分辨出来,照片、视频则可以通过瞳孔、耳朵等细节来判定。不过,据多位AI技术从业人员介绍,随着技术发展,此前常被用于判断真实性的“手部不自然”“光线错乱”等问题,正在逐渐得到改善,“现在越来越真了。”
在实际生活中,老年人也很难按照这样的标准来判断。王阿姨表示,由于自己听力不好,电话里的声音听不太清,如果遇到这样相似的声音,很容易被蒙骗。同样的,王阿姨在和子女视频时,也只是看个大概,“就看着大致的模样是谁,哪儿仔细看过耳朵眼睛啊!”
“真是太危险了!”得知AI克隆声音的步骤和效果后,刘大爷感慨道,如果接到了涉及资金往来的电话,一定得再打电话确认一下。
北京反诈中心官方公众号也曾发布提醒,在涉及到转账交易等行为时,要格外留意,可以通过电话、视频等方式确认对方是不是本人;在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。同时,要谨防各种信息泄露。 来源:京报网