2024110104:19星期五申请收录标签云
当前位置:首页新闻聚焦详情页

热搜第一!AI换脸诈骗频发 有人10分钟被骗走430万

新闻聚焦admin2023-05-24416

假如某天,年迈的母亲打来微信视频说买了台按摩椅要你付款,住校的女儿找你要生活费,多年好友找你借点钱,公司老板要作为财务的你打下款……

在确认了人脸和声音后,你会不会转账、付款?

随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI技术。

此前有媒体报道过有人用知名男星AI版的声音差点就行骗成功,当时就有网友说,如果画面和声音同时AI化,那岂不是更容易被骗?

如今,网友担心的事情真的发生了。

5月22日,#AI诈骗正在全国爆发#的话题冲上热搜第一,引发网友广泛关注。另据湖北网警巡查执法5月6日消息,AI技术改变诈骗,新骗局来袭后,诈骗成功率竟接近100%。

“好友”打来视频

10分钟骗走430万

据平安包头官微消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州一科技公司老板10分钟被骗走430万元。

4月20日,福州市郭先生突然接到好友的微信视频,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。

图源:平安包头

基于视频聊天信任的前提下,郭先生没有核实钱是否到账,先后分两笔把430万元给对方打了过去。钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。

郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

接到郭先生报警后,警方联动银行迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。

换脸“明星”卖货 全套模型仅3.5万

近日,有网友点开某直播间,却发现一当红女星正在直播带货。不过,这些当红女星并非本人,而是使用了AI实时换脸技术的普通主播,这也引发了网友广泛热议。

直播间利用当红明星的“脸”卖货,既是因为如今AI换脸技术已经实现了形象实时替换,也是因为让“明星”代言可以使自己在竞争激烈的直播带货大军中凸显优势,增加流量,提高销量。

某直播间内,一名主播正在进行“换脸”带货。

据报道,AI实时换脸全套模型购买价仅需3.5万元,于是某些商家就乐得通过这种小投入,来获取大利益。

虽然明星属于公众人物,但他们的肖像权、姓名权等合法权益是受法律保护的。所以,直播间利用AI技术换明星脸来带货,涉嫌侵害明星的合法权益。被侵权明星有权要求直播间停止侵权、赔偿相关损失。

此外,AI技术让“明星”带货具有“以假乱真”的效果,因此涉嫌误导消费者。有的消费者或许能发现其中破绽,但有的消费者未必会发现其中猫腻,就会误以为是真正的明星在带货,从而增加对该直播间和所售货品的信任,进而下单购物。因此,这种带货方式也是对消费者的一种欺骗和误导。

23岁美国网红交往上千名“男友”

23岁的美国网红Caryn Marjorie(卡琳·玛乔丽)正同时交往1000多个男朋友。不过,和上千位男友们交往的,并不是她本人,而是AI版本的Caryn:出售AI版本的自己,和粉丝谈恋爱,按分钟收费,目前内测收费每分钟一美元。

在过去一周,该Al创收了7.16万美元(约合人民币近50万元)。卡琳拥有180万粉丝,预计AI版本的自己,能让她的收入翻60倍,年入6000万美元(约4.16亿元)。

图片来源:Caryn Marjorie个人主页

在第一周公测中,有上千名粉丝第一时间付费体验,而进入到第二阶段的公测时,付费人数已接近2万人,其中99%为男性。

有专家指出,与AI网红建立亲密关系的可能性,可能会让用户更喜欢这种轻松的虚拟关系,而逃避现实生活中和真人的交往,那些正在学习基本社交和亲密关系技能的年轻用户尤其容易受到影响。他认为Caryn AI可能会带来种种“不良后果”。

也有很多业内人士担心起了卡琳的人身安全。因为直播行业的头部主播常常会吸引很多精神变态的跟踪狂人,卡琳的家中数次被尾随的陌生人闯入,因此她雇佣了24小时轮岗的保镖力量保护自己家里的安全。

AI技术如何介入新骗局?

那么在当下,AI技术是如何介入新骗局的呢?有什么新的诈骗方式?我们怎么识别AI诈骗呢?

第一种是声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

第二种是AI换脸

因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。

第三种是转发微信语音

除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。

在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。

图源:视觉中国

第四种是AI筛选受骗人群

值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。

AI换脸技术需要多方监管

虽然AI换脸技术发展很快,但我国相关制度已跟上这种节奏。为了防止用户利用使用人工智能深度合成技术实施不法行为,国家网信办、工信部、公安部此前已联合发布《互联网信息服务深度合成管理规定》,其中明确指出,深度合成服务提供者提供深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。但这些直播间显然没有对运用AI技术合成的带货“明星”予以显著标识。

图源:视觉中国

由此可见,直播间用AI技术换明星脸涉嫌双重侵权,也违反了相关法律规定,需要引起重视。希望涉嫌侵权的直播间、涉嫌失责的直播平台不要再心存侥幸,滥用技术。如今这种侵权现象引起舆论关注,或许就是侵权者美梦破灭的开始。当然,除了被侵权明星和消费者要主动维权外,有关部门也可依法予以惩治。

律师提醒:转账需多渠道交叉验证

换脸、合成声音等AI诈骗形式为何如此容易得手?北京市盈科(佛山)律师事务所合伙人陈显敏律师分析,使用人工智能技术手段模仿真人面容、声音,冒充亲友、熟人、领导等,很容易达到以假乱真的程度,具有极强的迷惑性。与其他类型电信诈骗相比,AI诈骗迷惑性更强,针对性更强,辨识更困难。

北京市京都律师事务所合伙人张小峰律师指出,AI技术可以综合运用语音、视频等手段使虚假信息更真实,更难被分辨,甚至需要用专业技术来辨认。此外,AI可以根据大数据和个人信息分析,生成高度定制化的诈骗信息,精准投放给筛选出的对象,别有用心地锁定诈骗对象实施诈骗。

图源:视觉中国

面对如此“狡猾”的诈骗形式,我们又该如何防范掉入他人精心设计的“陷阱”呢?山东圣义律师事务所律师宿昊表示,现今,AI技术的应用不仅解放了生产力,便利了我们的生活,也带来了大量的隐患,犯罪分子利用AI换脸和拟声技术实施诈骗,让普通民众更容易中招。要提高警惕,电话视频并不可信,遇对方要求求助借款、要求转账等行为,一定要多方位确定信息真实性、有条件可以要求面见,或询问共同熟人,避免让犯罪分子钻空子。

张小峰律师建议,大众要对这种新型诈骗手段提高警惕,不要过度相信语音或视频等,选择可信的通信渠道,尽量使用官方网站或其他具有实名认证或安全验证功能的软件进行交流,防止对方身份冒用;最后,还应该下载如国家反诈App等防诈骗软件,辅助识别诈骗信息。

(海报新闻编辑 陈凤祁 综合央视网、法制网、中工网、海报新闻等)

来源:海报新闻

相关文章