“刷脸时代”有哪些潜在风险?( 二 )

“刷脸时代”有哪些潜在风险?

有些人正在极力鼓吹科技公司应该采取主动行动 , 对于我们反对的政府政策 , 终止为政府机构提供所有服务 。 科技现已成为我们生活中一个关键的基础设施 , 如果不能及时更新技术—或者更糟的是 , 简单做出终止技术服务的决定—可能带来各种意想不到的后果 。 正如萨提亚在我们的内部谈话中多次指出的那样 , 政府正在以电子邮件为工具帮助非法移民家庭团聚 。 如果我们把邮件系统关掉 , 谁知道会发生什么 。 这让我们得出结论 , 抵制美国政府机构是错误的做法 。 但主张采取这种行动的人 , 包括我们自己的一些员工 , 提出了一些正确的问题 。 例如 , 人脸识别技术带来的挑战需要受到更多关注 。 经过深思熟虑 , 我们得出结论 , 这项新技术应该受到新的法律法规约束 。 这是保护公众隐私需求 , 化解偏见和歧视风险 , 同时使创新得以继续的唯一途径 。 这一点凸显了在公共安全与人权由来已久的矛盾之间的艰难权衡 。 它还表明了许多有关人工智能的新型伦理道德决定的主观性质 。 当然 , 我们同样担心 , 正如那位团队领导和其他人所指出的那样 , 如果我们拒绝提供这项服务 , 可能会有其他公司乘虚而入 。 在这种情况下 , 我们不仅会丢掉生意 , 还不得不在其他人帮助将技术用于我们所反对的有害目的时只能袖手旁观 。 不过 , 我们权衡了所有这些因素 , 最终得出结论 , 我们需要尝试给这种新技术的发展奠定某种类型的道德基础 。 这样做的唯一办法就是拒绝将其用于某些用途 , 并推动更广泛的公众讨论 。 这种原则性的方法在加州本地的一个警察部门联系我们时经受了考验 , 他们表示 , 他们想为自己的所有车载和手持摄像机配备一种能力 , 使其可以拍摄被拦下的人的照片 , 甚至包括例行检查时被拦下的人 , 并查看他们是否与其他罪行的嫌疑人数据库相匹配 。 我们理解他们的逻辑 , 但向他们建议 , 由于人脸识别技术仍然不成熟 , 因而无法在这种情况下部署 。 至少在2018年 , 如此使用这一技术将导致过多的错误匹配 , 并针对被错误识别的人发出警报 , 特别是如果他们是有色人群或女性 , 因为针对这两类人群的错误率仍然较高 。 我们拒绝了这项交易 , 并说服了警察部门放弃将人脸识别用于这一目的 。 这些经验提供了一些启发 , 帮助我们思考可以应用于人脸识别的原则 。 但我们担心 , 如果我们走上这条伦理大道 , 但被那些根本没有实施任何防范或限制措施的公司削弱 , 无论这些公司是在西雅图的另一侧 , 还是在太平洋的另一侧 , 则我们的做法都不会产生什么实际影响 。 与许多基于人工智能的技术一样 , 人脸识别也会随着大量的数据积累而改进 。 这就使公司拥有动力尽可能多地进行早期交易 , 从而导致商业竞争的风险 , 而科技公司将被迫在社会责任和市场成功之间做出选择 。 防止这种恶性竞争的唯一办法是确立一个支持健康市场竞争的责任底线 , 而一个坚实的底线基础要求我们确保这项技术以及开发和使用它的组织受到法治的约束 。 我们从以往针对其他技术所实施的监管中汲取了经验 。 在许多市场中 , 兼顾各方利益的平衡监管方式为消费者和生产者双方创造了更健康的动态关系 。 在20世纪 , 汽车工业曾花了几十年的时间来抵制监管要求 , 但今天 , 人们广泛认识到 , 法律在确保强制安装安全带和气囊 , 以及更高的燃油效率方面发挥了重要作用 。 同样的情况也适用于航空安全以及食品和药品管理 。 当然 , 谈论监管的必要性是一回事 , 而界定什么样的监管最为合理则是另一回事 。 2018年7月 , 我们公布了一个我们认为需要考虑的问题清单 , 并就可能的答案征求人们的意见 。 讨论首先在员工和技术专家中展开 , 但很快扩展到全国和世界各地 , 包括美国公民自由联盟这样积极参与这个问题讨论的公民自由组织 。 我们不再像大多数科技公司那样 , 坚守抵制政府干预的传统 。 我们以前进行过那样的抗争 。 相反 , 我们已经认可并支持我们心目中更积极但更平衡的监管方式 。 这也是我们早在2005年就呼吁美国联邦隐私保护立法的原因之一 。 我们认为 , 无论是对科技行业还是对社会 , 这种做法从普遍意义上来说都比完全依赖科技行业自行解决一切问题的做法要好得多 。 行动之前:我们能做什么? 在更迅速地开始行动之余 , 深思熟虑并确保迈出正确的前几步也很重要 。 在这一点上 , 我们相信我们拥有一系列想法来应对人脸识别技术 。 我在华盛顿特区的布鲁金斯学会宣布了我们对新立法的主张 , 并公开发表了我们提案的更多细节 。 然后 , 我们开始巡回推广这一主张 , 在接下来的6个月里 , 我们在美国和世界其他8个国家的公共活动和立法听证会上对它进行了推介 。 我们认为 , 立法可以解决三个关键问题 , 即偏见风险、隐私和对民主自由的保护 。 我们相信 , 一个运作良好的市场有助于更快地减少偏见 。 我们遇到的客户都没有兴趣购买错误率高 , 并导致歧视的人脸识别服务 。 但如果客户缺乏信息 , 市场就无法正常运转 。 为了帮助减少歧视风险 , 我们认为新的法律还应该要求 , 部署了人脸识别的组织首先应培训员工审查结果 , 然后再做出关键决策 , 而不是简单地把决策权交给电脑 。 除此以外 , 我们担心 , 如果一个组织在部署人脸识别时并未按照该技术设计时预期的方式 , 发生偏差的风险可能会加剧 。 训练有素的人员则有助于解决这个问题 。 在某种程度上 , 一个更棘手的问题是 , 什么时候应该允许执法部门使用人脸识别技术针对特定个人进行持续的监视 。 民主始终取决于人们相互见面和交谈 , 并在私下和公开场合讨论自己观点的能力 。 这有赖于人们能够在没有政府持续监控的情况下自由行动 。


推荐阅读