人工智能法纳入立法计划背后:专家建议划定红线,设置负面清单( 二 )


张欣也提出,目前对于人工智能的立法,各方面的条件已经成熟,已经在次一层级有了一些低位阶的立法,这对上位阶的立法已经有了一定规范基础 。另一方面,公众的数字素养和对立法需求的认知,包括科技企业的合规意识,还有相关的技术标准和伦理等有了一定完善 。在整个制度基础层面,人工智能法立法的基础已经比较成熟 。
立法困难何在?
人工智能技术还处于发展初期,挑战重重
【人工智能法纳入立法计划背后:专家建议划定红线,设置负面清单】杨延超认为,目前立法的困难在于,人们对于人工智能技术的规律还不能说有很好的掌握,仍然处于探索期 。对于人工智能技术可能产生什么样的风险,还需要总结和摸索,甚至出现了一些破坏性案例以后才能逐步完善 。所以目前的立法只能是相对原则性的立法 。
“各个法律法规之间配套是一个比较大的挑战 。”张欣说,比如在法律层面,数据平台和算法与人工智能密不可分 。之前已经有了个人信息保护法、电子商务法、网络安全法、数据安全法等,这些法律和即将制定的人工智能法之间的关系是怎么样的,它的匹配是怎么样的,需要进一步考虑 。第二个挑战是,目前我国已经在次一级的立法,比如部门规章、行政法规等层面已经有了一些立法的基础,在做更高位阶的基础性法律时,如何和下面的这些已有的法律规范进行匹配 。

人工智能法纳入立法计划背后:专家建议划定红线,设置负面清单

文章插图
资料图片 图据IC photo张欣说,第三个挑战在于人工智能领域变化非常快,尤其是技术发展,生成式人工智能的出现 。比如,欧盟的《人工智能法案》,制定的时候如果没有ChatGPT出现,它可能不会是今天的这么一个迅速改动的面貌,可能基本上已经通过了 。但因为ChatGPT的出现,打乱了它制定的节奏 。从欧盟《人工智能法案》的制定就能看出,人工智能领域立法的滞后性越来越明显 。因此,不管对于我国还是其他国家,人工智能立法既做到包容审慎,又给科技创新留下比较充足的弹性空间,能够具有一定前瞻性难度非常大 。这可能需要立法技术上,包括立法制度上有一个开放、动态的弹性空间 。
立法需要关注什么?
人工智能涉及方方面面,需关注算力、算法、数据
人工智能会涉及到生产生活的方方面面,比如内容治理、数据保护、知识产权、智能驾驶等,也有人工智能技术开发中的技术伦理,人工智能应用、服务中可能产生的侵权问题等 。是否这部法律也会像一个法典一样庞大?人工智能法草案会有哪些内容是必备的?
人工智能法纳入立法计划背后:专家建议划定红线,设置负面清单

文章插图
资料图片 图据图虫创意杨延超表示,人工智能在各个领域都有表现,比如无人驾驶、知识产权、金融等,在每个领域表现出来的法律关系、权利义务、法律责任都不同 。立法的过程大概率会从部门法中产生的问题进行逐步梳理总结 。
杨延超举例,比如在无人驾驶领域,产生的法律规则已经非常复杂,但是它的特点与生成式人工智能不同,需要做的是对传统交通法规的变更,过去驾驶员变成了机器,这里面对于交通事故过错责任、侵权责任的理解都会产生根本性变化 。其他领域也是如此,立法应该在细分的领域有深耕细作,然后抽象出来做法典化升级 。
张欣也认为,参照个人信息保护法、网络安全法 。人工智能法作为一个基础性的法律,可能不会像欧盟的《人工智能法案》一样那么长;可能就人工智能的用户,服务的提供者、开发者、部署者,这些主体的权利义务责任理清楚,而不会像一个法典那么庞大 。
那么人工智能立法应该有哪些必备内容?杨延超表示,不论什么领域的人工智能立法,都离不开人工智能三个要素的规定和三个原则的考量 。所谓三要素就是:算力、算法、数据,因为不管解决什么样的人工智能问题都离不开这三个要素 。所谓三个原则就是:产业发展、权利保护、伦理考量,制定的法律要保护人的权利要经得起现代人伦理的考虑,还要能够促进产业的发展 。
如何处理好风险与发展的关系?
专家建议划定红线:人工智能不能用于诈骗、数据攻击
制定法律如何既规避乱象,又不限制技术发展,实现良法善治?杨延超表示,这就要既考虑人工智能风险,又要考虑产业发展 。因为目前还属于技术发展的初期,不宜将很多问题规定得过细甚至过严 。整部法律还应当以鼓励产业发展为主,要确定大的红线和负面清单的立法思想 。所谓大的红线和负面清单就是考虑到人工智能可能给社会发展带来的几大危害,划定红线 。比如人工智能不能用于诈骗、数据攻击等 。划好红线,任何产业发展不能逾越 。这样既给了产业发展极大空间,又保障了人类社会基本安全不会受到侵犯 。


推荐阅读