揭秘OpenAI“红军”:聘请专家攻击ChatGPT 解决技术伦理问题( 二 )


然而自推出GPT-4以来,OpenAI一直面临着广泛的批评 。例如,有技术伦理组织向美国联邦贸易委员会(FTC)投诉,称GPT-4“有偏见和欺骗性,对隐私和公共安全构成风险” 。
最近,该公司推出了一项名为ChatGPT插件的功能 。通过该功能,Expedia、OpenTable和Insta等合作伙伴应用可以让ChatGPT访问它们的服务,允许ChatGPT代表用户下单 。
“红军”的人工智能安全专家丹·亨德里克斯(Dan Hendrycks)表示,这些插件可能会让人类用户“脱离整个链路” 。“如果聊天机器人可以在网上发布你的私人信息,访问你的银行账户,或者派警察到你家里去,那会怎么样?总体而言,在让人工智能掌握互联网的力量之前,我们需要更有力的安全评估 。”
受访者还警告说,OpenAI不能仅仅因为其软件是在线的就停止安全测试 。乔治城大学安全和新兴技术中心的希瑟·弗雷斯(Heather Frase)测试了GPT-4协助犯罪的能力 。她表示,随着越来越多人使用这项技术,风险将继续扩大 。她表示:“你做运行测试的原因是,一旦它们在真实环境中被使用,行为就会不同 。”她认为,应该创建一个公共记录本,报告由大语言模型引发的事故 。这类似于信息安全或消费者欺诈报告系统 。
劳工经济学家及研究员萨拉·金斯利(Sara Kingsley)建议,最好的解决方案是清楚地宣传这方面的危害和风险,“就像食品上的营养标签” 。“关键是要形成一个框架,知道经常出现的问题是什么 。这样你就可以有一个安全阀 。这也是为什么我认为,这项工作将会永久性的持续下去 。”

【揭秘OpenAI“红军”:聘请专家攻击ChatGPT 解决技术伦理问题】


推荐阅读