「法制日报」换脸软件ZAO遭遇滑铁卢 或推动人工智能前瞻性立法进程

  对话人

  中国传媒大学网络法与知识产权研究中心主任   王四新

  北京师范大学法学院网络与智慧社会法治研究中心主任  刘德良

  中国传媒大学政法学院法律系副主任 郑 宁

  《法制日报》采访人员  赵 丽

  采访人员:针对AI深度换脸技术风险多发 , 有关网络安全法律专家认为 , 必须高度警惕这种技术被恶意使用的风险 , 尽快开展法律风险评估 。

  王四新:我们需要对它进行安全评估 , 这种安全评估也是有法律依据的 , 网络安全法、网信办制定的规范性文件都有相应要求 。 安全评估需要弄清楚的是 , 实际运作过程中可能会存在哪些风险 , 针对这些风险 , 我们可以采取哪些措施 。 只有这些问题全部落实 , 才可以正常运转 。

  采访人员:今年6月13日 , 美国众议院情报委员会召开关于人工智能深度伪造的听证会 , 公开谈论了深度伪造技术对国家、社会和个人的风险及防范和应对措施 。 随着AI技术的深度应用 , 也有不少业内人士提出 , 我们必须高度警惕这种技术被恶意使用的风险 。 但对深度伪造的内容不能一棍子打死 , 很多深度伪造的合成媒体内容具有存在的正当性 , 只有影响国家安全、公共安全、民主政治的虚假信息才需要加强监管和规制 。 涉及刑事犯罪和一般网络侵权的深度伪造适用不同的规制 。

  王四新:要构建非常完备的内部制度 , 或者说构建一个比较好的体制和机制 , 对于这些发展过程中出现的问题 , 有一些特殊的流程 。 同时 , 还要建立有效的反馈机制 。

  郑宁:对于深度伪造 , 要具体问题具体分析 。 如果不影响国家安全、公共安全、公民个人权利 , 比如电影特效 , 就不用太多干预 , 如果有影响才应当加以监管 。 具体的法律责任要看违法的严重程度 , 然后来判断承担民事责任、行政责任还是刑事责任 。

  采访人员:有专家建议 , 立法部门应紧跟国际人工智能技术最新进展 , 联合国内专业研究力量 , 评估这项新技术可能带来的法律风险 , 以及对国家安全等构成的威胁 , 加快对类似新兴技术的前瞻性立法研究 。

  郑宁:网络安全法第十七条规定 , 国家推进网络安全社会化服务体系建设 , 鼓励有关企业、机构开展网络安全认证、检测和风险评估等安全服务 。 对于新技术 , 应该开展安全评估 , 评估可以由社会组织或企业自行开展 , 政府部门监督检查 。

  王四新:网络安全法是一个非常系统非常庞大的系统工程 , 需要企业全面履行主体责任 , 真正解决实践中出现的这些问题 。

  刘德良:针对这种立法 , 可能在未来需要跨过一些坎 。 首先要转变观念 , 从关注个人信息的泄露转到滥用的方向 。 我认为障碍就在于观念问题 , 现在的主流看法都在强调泄露 , 而不在防止滥用上 。

  在观念转变之后 , 再组织专家商讨、提案 , 或许情形很复杂 , 主体也不一样、侵犯的权益也不尽相同 , 要系统地规范什么叫滥用 , 滥用有哪些类型 , 如何从民法、行政法、刑法有效防止滥用 。 如果没有立法 , 司法也没有意义 。

  采访人员:在您看来 , 防止泄露、绝对的保密是否无法做到 , 未来相关领域的立法重点应该在如何防止这些信息或数据的滥用?

  刘德良:相关法律法规的建立完善要具有可操作性 , 不能不利于大数据和人工智能产业的发展 。 大数据、人工智能产业本身就需要数据搜集 , 现在我们的个人信息已经存在于N个商家和机构中 , 泄露了也不知道从哪里泄露的 , 防止的不是泄露 , 关键在于不能滥用 。

  从立法上要让进行身份识别的机构或者平台(比如银行、支付平台、电信公司、保险公司)去承担责任 。 如果用户的个人信息被盗用、滥用 , 有两种思路去问责:一是对这些机构、平台进行过错推定 , 除非能证明履行了核实比对义务 , 这种义务的标准随着技术、时代的变迁也会不断升级改变 , 需要司法按照这个标准去判定取证 , 来确定是否尽到义务 , 才可以免责 , 否则就要和假冒者一起承担连带责任;二是更加严苛 , 承担无过错责任 。

  如果法律有这种规定 , 就会倒逼这些机构、平台认真核查比对 , 甚至会想方设法开发更新的技术手段 , 来有效避免身份假冒滥用 。 如果不这样立法 , 掌握个人信息的机构、平台就会把风险转嫁给被假冒者 , 让个人承担风险 。


    推荐阅读