2025年05月16日 星期五
谨防换脸诈骗 聊聊春拍瓷器的鉴别 跟着市场波动顺势而为 期待马斯克的“鲶鱼作用”
第14版:新民财经 2023-05-27

谨防换脸诈骗

杨硕

最近,利用人工智能实施电信诈骗的典型案例冲上热搜,引发全网关注。

起因是内蒙古包头警方发布了一起利用AI实施电信诈骗的典型案例。

来自福建的郭先生是一家科技公司的法定代表人。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。

事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。

案件披露后,引起舆论高度关注,“AI诈骗正在全国爆发”等相关词条占据微博热搜榜前列。

事实上,针对技术手段日益更新的AI诈骗,2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,明确了深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。而抖音平台也于今年5月9日发布《关于人工智能生成内容的平台规范暨行业倡议》,其中提到,各生成式人工智能技术的提供者,均应对生成内容进行显著标识,以便公众判断。

另外,还是要加强有针对性的防骗教育和提醒。类似的“AI换脸”诈骗案例,应该尽快通过多种渠道告知民众,尤其要提醒一些老年人。与此同时,防骗治理工作也要尽快跟上,目前对“AI换脸”诈骗的防范措施还比较少。

中国互联网协会24日在官网发文提醒:面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。协会提醒大家,在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。同时,要加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。

放大

缩小

上一版

下一版

下载

读报纸首页