首页 > 滚动 > > 内容页

【侠客岛|岛妹说】千万当心这种新型诈骗!|观速讯

2023-05-29 22:34:37 来源:海外网 分享到 :

曾经,骗子骗钱是“不打针、不吃药,坐在这里跟你唠”。现在不一样了,上技术手段了。

最近,内蒙古包头警方发布一起利用AI实施电信诈骗的案例。来自福建的郭先生是某科技公司法人代表,今年4月,一位“好友”通过微信视频联系郭先生,称需要430万元保证金,想借用郭先生公司的账户走账。

“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以放松了戒备。”于是,郭先生10分钟内把430万元转至对方账户,可没想到,给好友回电话之后他才知道,这是骗子用AI换脸和拟声技术演的一出戏。


(资料图片仅供参考)

这谁能想到?

再看一个例子。

2022年2月,陈先生到浙江温州一家派出所报案,说自己被“好友”诈骗了近5万元。原来,诈骗分子利用陈先生好友在社交平台发布的视频,截取其中面部画面,再用AI换脸技术进行合成,就制造了陈先生与“好友”视频聊天的假象。

您猜这样的技术得花多少钱?

还真不贵。据媒体报道,用照片生成1分钟“露脸且说话”的视频,仅需30元。这种技术,直播带货里也有不少人使用。点开一些电商直播间,“刘亦菲”“殷桃”“迪丽热巴”都在卖货。在一个展示换脸效果的视频中,主播把名为“成龙”的模型载入软件,画面中立马有了“成龙”的直播镜头。主播歪头、变换表情,五官动效自然顺畅,只有在手掌划过脸前时,画面才有一些异样。

AI换脸为“成龙”的实时效果和软件界面(图源:央广网)

老话说“眼见为实”,可如今,眼见的也未必作数了。碰上这种新型诈骗,到底该怎么防范?

那肯定得认清骗子的招。

首先是声音合成。骗子往往通过骚扰电话的通话录音,提取接听者声音,再进行声音合成,用伪造的声音设下骗局。比如,某公司财务小王接到“领导”电话,要求立刻给供应商转款2万元;小王被声音迷惑,1小时内完成转款。

然后是AI换脸。骗子会分析群众发布在网上的各类信息,通过AI技术筛选目标人群,再利用AI换脸,伪装成受害者的家人、朋友、领导、同事,借助视频通话骗取信任,实施诈骗。

技术这么先进,防不胜防?其实就记住一句话:人心隔肚皮,人脸能画皮,开口就要钱,难免有猫腻。

所以,别着急转账打钱。打个电话,实在不行见一面,事缓则圆。同时,一定要注意保护好个人信息,千万别轻易透露身份证、银行卡账户,慎重提供人脸、指纹等生物信息,少过度公开或分享人脸动图、视频。

如果接到了骗子的视频通话,还有两个小技巧可供参考:

一是盯着对方的眼睛。AI换脸多用睁眼照片合成,眨眼频率跟真人有区别,不妨留心观察;二是要求对方用手指在面部晃动、用手掌挡住脸的一部分,看看面部会不会扭曲变形。这是因为,骗子训练AI算法时,用的多是人物正面照,程序无法处理突然出现在面前的物体。

(图源:人民日报)

要是遇到可疑情形或者不幸被骗,一定要注意保护证据,拨打96110,让骗子接受法律的制裁。

讲完个人该做的,咱也唠唠平台。去年12月,《互联网信息服务深度合成管理规定》正式发布,明确提出:提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。这就是说,平台不能一放了之,发现类似情形得及时介入、敦促打上标识,让用户不被蒙蔽。

技术是一柄双刃剑,操控剑柄的人应守法有道。这一点,从平台到监管,更需形成合力。

文/云歌

资料来源/人民日报、央视新闻、中新社

来源/侠客岛微信公众号

责编:海闻、陈亚楠

推荐阅读