“杨幂热巴”直播带货引流?“朋友”通视频骗走数百万元?警惕AI换脸新骗局!

环球网 2023-05-25 14:27:09

“杨幂”直播卖衣服?

主播AI换脸带货引流

点开直播间乍一看,卖货的竟是当红女星。再定睛一看,“明星”其实是使用人工智能(AI)实时换脸技术的普通主播。他们冒充明星艺人,只为增加卖点,助力卖货……

记者留意到,某女装品牌的微信视频号直播间里,主播长相和女明星杨幂十分相似。而在不同时段内,该直播间的不同主播,都有着和杨幂相似的脸。

一位长期观看该女装品牌的消费者告诉记者,这个女装品牌的视频号直播间的主播,和其淘宝直播间的直播,是同样的人。但相同的主播在两个直播间用的是不同的脸,“他们在淘宝直播间就是用的自己的脸,在视频号直播间就用AI换过的脸”。

AI换脸技术应用范围越来越广

被滥用的趋势也逐渐凸显

除了有电商动歪心思“带货引流”

不法分子也开始利用来实施诈骗

公司老板遭遇AI换脸诈骗

10分钟被骗取430万元

据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

今年4月,郭先生的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。

基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。

事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。

AI诈骗手法不可不防

01

声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

案例:某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

02

AI换脸

人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

案例:近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。

03

转发微信语音

骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。

尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

04

AI程序筛选受害人

骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。

如此以假乱真

让人防不胜防

AI技术的法律边界在哪?

普通人又该如何防范?

AI技术存在滥用风险

务必保持防范意识

为规范人工智能发展,2022年12月,《互联网信息服务深度合成管理规定》正式发布,明确了合成数据和技术管理规范。其中提到:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。

近期,也有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。

对于个人而言,除了在形形色色的“明星脸”中保持清醒,避免陷入虚假宣传,更重要的是面对花样翻新的AI诈骗,必须保持防范意识。

保护信息,提高警惕。不要轻易透露自己的身份证、银行卡、验证码等信息,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

多重验证,确认身份。如果有人自称“熟人”“领导”等通过社交软件、短信以各种理由诱导汇款,或涉及网络转账交易行为时,务必通过电话、见面等多途径核验对方身份,不要未经核实随意转账汇款;

如不慎被骗或遇可疑情形,请注意保护证据,并立即拨打96110报警。

整治AI换脸

要用“法”打败“魔法”

“换脸冒充当红女星带货,赚得盆满钵溢”“短短10分钟,被骗430万元”……这种“换脸”术和拟声术,让人防不胜防。如此种种,无不说明AI“换脸”术和拟声术的滥用,已经对公共利益构成威胁。

整治AI换脸,当用“法”打败“魔法”。

这个法,是方法、办法的法。有人说,防骗最有效的一招就是不信,无论对方怎么“换”、怎么变、怎么翻着花样骗,就是“不听不信不转账”。最关键的是,优化“打法”,升级高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面对骗子的新招数,我们的反诈术、防骗方法更要优化,总结出富有成效的好方法,并做好宣传普及,构筑反诈防骗的全民阵线。

这个法,也是法规、法律的法。此前,一款主打AI换脸的App很火,“只需一张照片,演遍天下好戏”。但很快,在监管部门约谈后,这款App下架,原因很简单,如此换脸侵犯了公民的肖像权。去年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI换脸空间将越来越逼仄。

AI换脸术滥用,也促使大家思考一个深层次问题。新技术不断面世,带给了人们便利,但可能被居心叵测之徒非法利用。人们固然不能因噎废食,但也不能忽略它的双刃剑效应。如果缺乏应有规束,AI换脸则可能打开潘多拉魔盒。因势利导,使其趋利避害,这是我们要全力做到的。

来源丨广西新闻网微信综合央视新闻微信公众号、中国之声、“平安包头”微信公众号、南方都市报、武汉市反电信网络诈骗中心等

21 阅读:44601
评论列表
  • 浅笑 26
    2023-05-26 15:53

    人脸识别已经不安全了[汗]

  • jimmy 23
    2023-05-26 18:39

    美国人发明了AI技术,中国人用他来诈骗。真不知道说啥好。

    Paraling 回复:
    美国把AI换脸开发出来,就是为了诈骗开发的,你就不能站起来说话?
    The 回复:
    连先后顺序都是错的,跪久了都不会站了,美国人发明了ai技术,中国学习了ai技术,美国人把ai用于诈骗,也被中国骗子效仿了,甚至这些只是中国人被操控用来诈骗,真凶是缅北诈骗集团[吃瓜]
  • 2023-05-26 15:38

    不是,看身材也知道这不是杨幂啊😱

    毒药丸 回复:
    [点赞]就是,大幂幂不是白叫的
  • 2023-05-27 07:58

    AI换脸违法!所以平台不管,合法!警察不管,合法!你要自己辨别,真假!违法犯罪都没人管,就抓涉黄是吧

    铁面无私变中间 回复:
    抓王好啊,有收入没风险,看中又能据为己有[得瑟]不听话的罚死你[得瑟]
    oh桃之幺 回复:
    涉黄也不抓 村附近经常看到卖煌女
  • 2023-05-27 03:33

    傻子迪丽热巴杨幂没个几千万根本不会出场的好吧

    不谈钱只说yuan 回复:
    你真的对钱没概念?几千万出场费?如果你年纪小呢无知很正常,如果你已经过了30那就真的有点可笑。
    梦红尘 回复:
    镶金了
  • 2023-05-26 12:34

    让对方银行转账,核对账号名字。核对不上,不打款。

    小强特笑 回复:
    搞个同名同姓的
  • 2023-05-27 10:38

    这用杨幂的脸也是犯法吧

    The 回复:
    这应该侵犯肖像权了[得瑟]
  • 2023-05-27 12:23

    明星带货本来就不信,要是你的东西好,还需要花大价钱请明星?[得瑟]

    有谁共鸣 回复:
    也不是这样,我从来不在直播间买东西,也不看直播,但是薄利多销还是知道的,有些能便宜点,但是也要考虑自己是否有购买需求,有些人是一看便宜就要买
  • 2023-05-26 11:05

    他朋友的脸是怎么被拿去的?

    zqyghj 回复:
    他的QQ被盗号了。还有现在的人发抖音等小视频很多。
  • 2023-05-27 03:32

    网骗死刑重刑看谁还敢骗

    A的网名就是长这样人家才记得住 回复:
    这种都是低级的小虾米,高端玩家都在缅北[得瑟]
  • 2023-05-26 21:37

    [得瑟]AI换脸早期做的美事多正经

  • 2023-05-27 11:05

    西方之所以到现在还使用传统的支付和线下消费方式,可能是因为人家已经想到了隐私权的泄露以及消费的不安全性

    A的网名就是长这样人家才记得住 回复:
    你这舔的角度很刁钻啊!我竟无言以对…
    杨312 回复:
    咱们还是回到原始社会的好,还不用穿衣服,交易用贝壳或者以物易物
  • 2023-05-26 11:13

    [点赞]

  • 2023-05-28 05:23

    [笑着哭]不知道我看到的那些国外信用卡诈骗案和各种枪击抢劫是哪来的啊[笑着哭]现金支付最大安全隐患就是他们在一个枪支泛滥的国家实行[笑着哭]

  • 2023-05-26 14:27

    打尝什么的神经病真多

  • 2023-05-27 14:03

    净TM糊弄老百姓

  • Ring 2
    2023-05-28 02:35

    全都是长颈鹿。设计人物也设计得符合点吧。看到这个脖子就觉得吓人[横脸笑]

  • 2023-05-29 21:55

    这个品牌太恶心了。ai换脸侵犯杨幂的形象权,误导消费者涉嫌欺诈。希望杨幂看到报道把这垃圾告了

  • 2023-05-27 21:48

    被骗?活该!

  • 2023-05-28 15:01

    前段时间说要规范ai用法,结果没一堆人喷死,现在好了吧,用来骗死你们

  • 2023-05-28 19:51

    这就是诈骗,没有擦边球

  • NuK7 1
    2023-05-28 19:36

    看来以后得学古代对暗号了[得瑟]

  • Lzh 1
    2023-05-29 10:52

    为什么允许这些技术滥用

  • 2023-05-31 00:46

    直播带货,就是电视购物诈骗的移动版。傻子百去直播买货,活该被骗[得瑟]

  • 以后拍电影是不是也可以用这个?连真人都不需要去,直接花100一天的群演,后期全部AI一换~[得瑟][得瑟][得瑟]什么大咖没有?连秦始皇都能请出来做男一号!

  • 2023-05-27 20:00

    [哭笑不得]就和家人 商量一下暗号。比如今天挣了3000。 他签有 或没 也是骗子。(那来一天挣3000的工资 )

    文不聊恨 回复:
    问题:今晚打边炉?答案:骑马过海[笑着哭]
  • 2023-05-30 06:51

    出事的多了就会管了比如电信诈骗

  • 2023-05-30 09:49

    幸亏我长得丑,从来不自拍,出门戴口罩,有本事偷我的脸[得瑟]