美国对人工智能的监管:进展、争论与展望

文章转载来源:AI梦工厂
原文来源:上海美国研究
作者:上海市美国问题研究所研究助理高隆绪

美国对人工智能的监管:进展、争论与展望

文章插图
图片来源:由无界 AI‌ 生成自ChatGPT问世以来,人工智能所展现出的强大性能得到了世界的瞩目,但与此同时,其暴露的诸多风险也向世界敲响了监管的警钟 。2023年3月,意大利政府就以ChatGPT没有就收集处理用户信息进行告知、缺乏大量收集和存储个人信息的法律依据为由,宣布禁止在意大利使用ChatGPT 。2023年6月,欧洲议会正式批准了旨在对人工智能进行全面监管的《人工智能法案》,人工智能在生物识别领域的潜在危险应用以及大模型训练过程的不透明则成为了欧盟议员的主要关切点 。
在欧洲的人工智能监管如火如荼之时,大洋彼岸美国的人工智能监管则仍处于起步阶段 。从行政角度看,虽然拜登多次与人工智能方面的企业家、学者进行会面以表达重视,但美国仍未确定人工智能监管的主管机构;从立法角度看,美国国会则尚未就人工智能监管的联邦立法达成广泛共识,在具体的监管框架、委员会设置等方面也尚未统一意见;从社会舆论看,持不同观点的美国科技与政策界在人工智能监管议题上仍在进行激烈辩论 。上述情况都意味着美国详尽的人工智能监管政策或立法的出台仍需时日 。
一、当前美国人工智能监管的政策进程
美国当前的人工智能监管政策总体呈现出“总统定基调,各部抓分管”的态势,即由总统出台宏观政策与蓝图,各部门分别审查人工智能技术在自己负责的领域内所存在的风险,并出台相应的措施和政策法规 。
当前拜登最新、最详细的人工智能监管政策框架为其在2022年10月4日提出的《人工智能权利法案蓝图》 。该蓝图为人工智能系统设立了五项基本原则,分别为安全有效的系统、算法歧视保护、数据隐私、通知和解释、人工替代方案与后备 。除《蓝图》外,近期白宫还颁布了一些较为零散的政策来发展和落实《蓝图》的监管要求,比如白宫5月4日发布消息称要求OpenAI、微软等厂商的大模型需在2023年8月的DEFCON31黑客大会上接受互联网专家的公开评估,以确定其大模型是否符合《蓝图》的要求 。
在白宫宏观《蓝图》的指导下,美国联邦各部门开始在其负责范围内着手进行有关人工智能监管具体政策的制定 。如劳工部制定了《公正的人工智能行动手册》,旨在避免人工智能对求职者与员工产生基于种族、年龄、性别等特征的偏见 。消费者金融保护局则针对大模型的“黑箱状态”发布文件,认为由“黑箱状态”的人工智能大模型计算出的结论不得作为金融机构拒绝向申请人放贷的合理理由 。
而在各联邦部门中,有两个部门对人工智能监管显得格外“热情”,展现出了主导美国人工智能监管政策的势头 。首先是美国商务部,其下属机构美国国家标准与技术研究院(NIST)于2021年就开始针对人工智能监管进行意见收集,并在2023年1月就推出了《人工智能风险管理框架》 。虽然该框架并不具备强制性,仅旨在帮助人工智能企业和专家更好地对人工智能进行风险评估,但其对人工智能存在的风险进行了详尽的分级与分类,成为了具体监管政策出台的重要基石 。除推出《框架》外,商务部还于2023年4月就人工智能问责措施公开征求意见,包括人工智能模型在发布前是否应经过认证程序这一关键监管步骤 。另一个在人工智能监管方面处于重要位置的部门是联邦贸易委员会(FTC),在拜登的《蓝图》出台之前,该委员会就在2022年4月发布了《联邦贸易委员会消费者保护指南》,并对人工智能做出了“透明、可解释、公平且符合经验,促进问责制”的要求 。联邦贸易委员会也还有可能成为未来专门对人工智能进行审查的部门,其在2023年3月收到了来自人工智能和数字政策中心(CAIDP)的一份新的举报,要求对OpenAI及其产品GPT-4进行调查 。
二、当前美国人工智能监管的立法进程
当前美国有关人工智能的监管主要分为各州与联邦两个层面 。在州层面,2022年共有17个州引入了有关人工智能的法案,科罗拉多州、伊利诺伊州和佛蒙特州等还专门在立法机构成立了工作组或委员会,来对人工智能进行研究并负责提供报告与建议 。各州的相关立法主要涉及人工智能大模型中的歧视与偏见、大模型的透明度、人工智能于生物识别领域的应用等 。
【美国对人工智能的监管:进展、争论与展望】


推荐阅读