OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策


OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策

文章插图
新智元报道
来源:智源社区
【新智元导读】近期 , AI target=_blank class=infotextkey>OpenAI超级对齐负责人Jan Leike讲解了如何利用可扩展监督来解决对齐难题 。
今年早些时候,OpenAI宣布成立了一支专注于超级对齐的新团队,由Jan Leike和IIya Sutskever领导,超级对齐旨在构建一个能够与人类水平相媲美的自动对齐研究器 。其目标是尽可能地将与对齐相关的工作交由自动系统完成 。
其中一个重要手段就是可扩展监督(Scalable Oversight),即在确保模型能力超过人类水平后,仍旧能够与人类期望保持一致、持续地进行改进和学习 。
可扩展监督的重点是如何向模型持续提供可靠的监督,这种监督可以通过标签、奖励信号或批评等各种形式呈现 。
随着AI不断进步,RLHF可能会逐渐失效,人类评估模型的能力遭遇瓶颈 。如何判断可扩展监督正在发挥作用?可扩展监督的目标是什么?
OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策

文章插图
Jan Leike是OpenAI超级对齐团队负责人,研究方向为强化学习,大语言模型的对齐engineering,通用人工智能等 。
2016年加入谷歌 DeepMind 团队从事人类反馈强化学习(RLHF)相关研究,现领导OpenAI对齐团队 , 旨在设计高性能、可扩展、通用的、符合人类意图的机器学习算法,使用人类反馈训练人工智能,训练人工智能系统协助人类评估,训练人工智能系统进行对齐研究 。
分享实录
关于对齐问题 , 我已经思考10年之久 。
在OpenAI,我与Ilya Sutskever共同领导了超级对齐团队,并深度参与了一些项目,包括RLHF原始论文、InstructGPT、ChatGPT和GPT-4的对齐项目 。
目前超级对齐的目标是弄清楚如何对齐超级智能 , 因此系统必须比人类更聪明 。我们希望在四年内,利用OpenAI 20%的算力解决超级对齐的问题 。
OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策

文章插图
在超级对齐团队中,我们正在开展一系列不同的项目 , 这里我想重点讨论下可扩展监督(scalable oversight),这是解决对齐问题较为自然的方法之一 。当然还有很多关于泛化、可解释性和训练模型机制的工作 。
【OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策】什么是可扩展监督
为了促进可扩展的监督,我们从整体上考虑对齐的方式 。如图所示,随着AI不断进步,它将能够解决越来越困难的任务 。但默认情况下,人类评估任务的能力不会随着人工智能的进步而提升 。
OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策

文章插图
从某一个临界点开始,人类将无法再可靠地评估人工智能系统 。我认为,正是从这个点开始,RLHF失效了,因为人类将无法再为人工智能系统提供良好的训练信号了 。因此从这个点之后,我们需要很大程度上依赖新的对齐技术,而这些技术尚未证明,手段也未知 。
我将其称为对齐的难题:我们在对齐如大语言模型之类的AI系统方面取得了很大进展,但真正的挑战是对于那些过于复杂无法直接评估的任务上如何对齐系统 。
OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策

文章插图
因此我们希望通过可扩展的监督来扩展人类评估复杂任务的能力,特别是借助AI本身来让人类更好地进行评估 。
我们希望看到:在可扩展的监督的助力下,人类可以更有效地监督人工智能系统 。
OpenAI破解对齐难题?超级对齐负责人Jan Leike采访实录:「可扩展监督」是良策

文章插图
我不敢说一定会实现扩展,但这至少会让问题变得更容易 。比如,如果你正在监督一个大语言模型编写整个代码库,输出10000行代码 。那么,你很难找到这个代码库中所有的bug 。
一般来说,人类不擅长发现软件中的漏洞,我们日常不得不处理很多有缺陷的软件 。但是如果有一个语言模型为你指出代码库中的漏洞,那么代码检查工作就会变得容易的多 。语言模型会告诉你,使用某个输入运行该程序,会在某一行代码处报错 。
你可以逐步运行该程序,直到这一行进行检查,这让事情变得容易多了 。有时,它可以发现人类没有意识到的细节问题 。我们的动机是:在某种程度上 , 让人类监督系统查找漏洞 , 比监督系统编写整个代码库要容易得多 。如果有一个帮你查找漏洞的 AI 助手,就能更有效地监督代码库 。


推荐阅读