腾讯研究院关于“深度合成”技术的十个误解( 三 )


误解8:互联网行业对深度合成内容呈放任状态 。
实际上 , 互联网行业内的主流网络平台已经着手采取自律措施应对深度合成技术的潜在滥用 。 谷歌、Facebook等美国主流科技公司已经采取了应对方案 , 积极开发甄别AI合成内容、对抗深度合成技术滥用的方法和工具 , 如谷歌开发的“Reality Defender”工具 , 可扫描用户浏览的图像、视频或其他数字媒介 , 标记并报告可疑的伪造内容 , 检测经窜改的人工合成内容;在此基础上降低合成内容的权重 , 让算法不再为用户推荐被认定为深度合成并可能造成负面影响的内容 。 利用平台优势 , 这些科技公司已经在积极构建深度合成数据集 , 并开放给研究人员免费使用 , 以此来促进检测技术的研究与开发 。 同时 , 各平台之间还携手开展深度合成检测挑战赛 , 为检测技术的开发提供资金和深度合成数据集 , 以促进更多检测识别技术的开发 。 仅2019年 , 谷歌、Facebook等相继投资此类竞赛 , 例如Facebook联合微软、美国AI联盟(Partnership on AI)、MIT等九家机构发起的深度合成检测挑战赛(Deepfake Detection Challenge) , 已取得一定效果 。 在技术赛道之外 , 平台也在培训专门的合成内容审查人员 , 主要目的是增加审核的准确性 , 特别是在深度合成与戏仿讽刺的界限还难以把握的情况下 , 需要人工审核的参与 , 确保内容符合平台的政策要求 。 在国内 , 腾讯信息安全团队自研的GFN网络算法鉴别AI换脸 , 及腾讯优图实验室研发的人脸合成检测技术 , 对相关深度合成内容的检测都达到了很高的准确率 。
误解9: 深度合成已经被国外立法禁止 。
实际上 , 被禁止的不是深度合成技术本身 , 而是利用此项技术从事色情视频合成、虚假新闻、干扰选举等非法行为 。 Reddit网站上deepfake论坛关闭、一键裸照应用deepnude下架等事件似乎表明国外对这项技术很不友好 , 但事实上 , 国外立法都承认深度合成技术的有益应用和正向价值 , 没有“一刀切”禁止使用深度合成技术 , 而是根据使用意图和使用效果进行划分 , 主要对利用深度合成技术从事的违法行为进行打击 , 而没有对正常的深度合成技术应用施加过多的限制 。 例如 , 美国国会“Deepfakes责任法案”及美国德州、加州、弗吉尼亚州、纽约州的相关法案等只禁止政治干扰、色情报复、假冒身份等目的的深度合成 , 但没有强制要求平台部署检测识别措施 , 而是加强源头治理 , 要求制作者、上传者对深度合成内容添加水印、文字、语音等标记 。 欧盟则对深度合成技术可能引致的假新闻以及个人信息保护等问题关注度颇高 , 在考虑用GDPR进行规制的合理性 。 回到我国 , 《网络信息内容生态治理规定》第23条、《网络音视频信息服务管理规定》第10-13条、《民法典人格权编(草案)》第799条、《数据安全管理(征求意见稿)》第24条等规定给“深度合成”技术划定了应用边界 , 同时为行业探索有益应用场景留出了发展空间 。
误解10:深度合成会彻底冲击媒体信任 。
深度合成技术将如何影响大众的行为和认知 , 目前还没有足够的研究支持 , 但是它提示我们 , 进入人工智能大众化时期 , 对大众信息分辨能力的培养也是治理的重要一环 。 以往PS等编辑技术也能进行一定程度的内容合成 , 但是并未冲击社会的信任 , 相反社会能很好地适应并使用这一技术 。 深度合成媒体将比PS等技术更容易操作和使用 , 随着开源工具的出现 , 深度合成内容的应用规模和使用范围也将更大 , 内容的说服力更强 。 这为识别真实信息与合成内容带来了挑战 , 在一些报道中 , 深度合成技术被形容成社会真相的破坏者 , 认为深度合成技术的存在会导致对媒体信息天然的不信任 , 公众可以用“deepfake”去怀疑一切他们想怀疑的事物 。 问题是 , 在这一技术出现之前 , 使用传统的音视频剪辑技术 , 甚至不使用技术手段 , 通过断章取义等简单方式就可以炮制虚假信息 。 媒体信任的塑造绝对不仅仅是封杀某一技术可以达到的 , 而需要从内容的生产、传播、接收等多方面进行规范 。 深度合成技术的出现已经让我们意识到了眼见不一定为“实” , 这是加强公众信息辨别能力的一个重要契机 。


推荐阅读