纪玉
前不久,有人使用AI工具生成高度逼真的“流浪汉卧坐餐厅”图片发送给家人,没想到家人信以为真、报警求助。
随着生成式人工智能、深度合成等技术快速发展,日益逼真的AI生成合成内容也带来虚假信息传播等问题,普通人往往很难辨别真伪。近期,针对部分网站平台未有效落实人工智能生成合成内容标识规定要求,网信部门集中查处一批违法违规移动互联网应用程序,依法依规予以约谈、责令限期改正、下架下线等处置处罚。
现实中,AI内容以假乱真的例子并非个别,甚至有人为博流量利用AI造谣,触碰法律红线。比如,有人用AI工具编造“在监狱直播带货”图片的谣言并发布,引发大量关注和讨论,后因扰乱公共秩序被公安机关给予行政处罚。还有人利用“AI换脸”等技术仿冒公众人物形象,发布营销信息,误导公众。
今年9月1日,《人工智能生成合成内容标识办法》正式实施,要求人工智能生成合成内容应当依法依规进行显式与隐式标注,以保障内容的可识别性。不过,近日有媒体对多个平台展开调查发现,新规落地效果参差不齐,仍有大量未标识内容持续传播。一些AI内容在去除水印之后,平台可能就识别不出其AI属性。
要减少AI内容真假难辨的现象,就要让更多此类内容“亮明身份”。从AI生成合成服务提供者,到网络信息内容传播平台,再到发布生成合成内容的用户,相关各方都要依法依规履行标识、声明等义务。对平台来说,不仅要提高识别能力,还要对未主动标识或声明的AI内容及发布账号,采取提示、限流、下架等措施。对普通人来说,生成、发布AI内容时也需要意识到自己的那份责任。
促进技术向善,离不开持续完善的法规体系和监管机制,也离不开人的责任心与认知力。对那些蓄意利用AI技术进行造谣、侵权、欺诈等行为的,相关部门更要依法严肃惩治,加大打击力度。