方翔
只需上传自己的照片,相关系统即可自动“换脸”,成为“主角”穿越到热播网剧中。这样的AI(人工智能)换脸已经成为了不少剧迷追剧的新玩法。然而,这种深度合成技术就像一柄双刃剑,也有可能给使用者带来威胁。对此,近日发布并将于明年1月10日起实施的《互联网信息服务深度合成管理规定》中明确,AI换脸等应当进行显著标识,避免公众混淆或者误认。
从积极的一面看,深度合成技术推动了社交、游戏、影视、电商等领域沉浸式体验的发展;但从另外一个方面来看,这些应用中可能也会涉及个人隐私的保护、版权的争议以及道德伦理方面的巨大挑战,它们也有可能被一些不法之徒用于“伪造”或者“欺骗”。合肥警方在“净网2021”专项行动中打掉一个利用深度合成技术进行犯罪的团伙,犯罪嫌疑人利用电脑将一张张静态照片制作为人脸动态视频,为黑灰产业链提供注册手机卡等技术支撑。
深度合成技术所产生的信息泥沙俱下,需要通过制度予以规范,使其不至于成为一匹不受控制的脱缰野马。通过对AI换脸等进行显著标识,让一般网民就能够区分深度合成技术的产出结果与原始数据,从而了解事实真相,缓解因信息公信力问题产生的信任危机。同时,规定还明确深度合成服务提供者和应用商店,都要从源头上对深度合成内容提前把关,否则也要担责。
有了制度还需要具体的执行。一方面,有关部门要提高公众对于深度合成技术的认知,除了显著标识之外,更要让他们了解到技术可能带来的风险,让公众一起参与到对于深度合成技术的治理中,促使深度合成技术健康良性发展;另外一方面,有关部门也应该看到,随着“元宇宙”等技术的发展,全身合成、3D塑型等将广泛被应用,全新的场景将以深度合成技术为基石展开,也需要进一步细化深度合成技术的行业规范,以预防和减少深度合成技术的不当,甚至是滥用行为。
深度合成技术治理需要政府、企业、社会、网民等多方主体共同参与,推动深度合成技术的依法、合理、有效使用,积极防范化解深度合成技术带来的风险,促进其正向应用与创新,助力打造网络空间良好生态。