人工智能ChatGPT爆火背后:以后跟你一起上网的没有真人了?


人工智能ChatGPT爆火背后:以后跟你一起上网的没有真人了?

文章插图
图源|Pexels
 导  读
未来三五年内几乎一定会发生的事情是:社交媒体、短视频平台上开始大量出现普通人不容易分辨,完全由AI创作的“灌水”内容 。这些内容既可以极大丰富社交媒体的内容厚度,还可以根据AI对人类兴趣爱好的学习追踪,为不同人群打造更为庞大、牢固的“信息茧房” 。
撰文 | 王咏刚
责编 | 邸利会
●                   ●                    ●
近日,ChatGPT火遍了全网 。人工智能研究和部署公司OpenAI 发布的短短5天内,就吸引了100万用户 。在官方描述中,称其是一个“可以连续回答问题、承认自己的错误、挑战不正确的前提并拒绝不适当的要求”的对话模型 。从闲聊、回答问题到写小说、诗歌,帮程序员解决程序的Bug等等,ChatGPT表现出的能力让不少人惊叹 。
编者也忍不住尝试了一下,如下图 。
人工智能ChatGPT爆火背后:以后跟你一起上网的没有真人了?

文章插图

人工智能ChatGPT爆火背后:以后跟你一起上网的没有真人了?

文章插图
再比如,编者也想看看,它写诗的能力 。
人工智能ChatGPT爆火背后:以后跟你一起上网的没有真人了?

文章插图
那么,在不少人看来,ChatGPT已经足够好了,但随之而来的问题是,它会不会被滥用产生危害?
带着一系列的问题,《知识分子》邀请创新工场人工智能工程院执行院长王咏刚带来他的解读 。
01
ChatGPT是重大技术突破吗?
简单回答,不是根本性的突破 。
OpenAI的ChatGPT是“现象级”技术创新,但不是根本性的科研或工程突破 。最近几年AI生成内容(AIGC)突飞猛进,其中最为革命性的突破包括2017年提出的Transformer模型,2020年OpenAI发布的GPT-3,以及2022年替代GAN成为图像、视频生成主力的Diffusion模型家族 。
ChatGPT是基于GPT-3的进一步创新,是站在巨人肩膀上的明星技术 。简单说,ChatGPT是OpenAI原创性自动问答系统InstructGPT的延续,建立在GPT-3的后续改进版本GPT-3.5基础上,通过引入强化学习模型,大幅提高了AI在人机对话时的准确度和可控性 。
非专业人士可以这样理解——OpenAI在2020年发布的GPT-3让计算机第一次拥有了惟妙惟肖模仿人类“说话”的能力,但此时的AI就像一个童言无忌的孩子,啥都会说,也啥都不顾忌 。GPT-3生成的文字内容经常脑洞大开,观点和逻辑跨度好比天马行空,甚至屡屡输出错误观点、车轱辘话、脏字脏话 。很显然,聪明但不懂事的“孩子”需要严加管教 。
OpenAI引入了人类监督员,专门“教”AI如何更好地回答人类问题 。AI的回答符合人类评价标准时,就给AI打高分,否则就给AI打低分 。基于人类监督员的评价,OpenAI围绕GPT-3.5打造了一个强化学习模型,督促AI按照人类价值观优化数据和参数,最终开发出效果惊艳,火爆出圈的ChatGPT 。
02
如何看待ChatGPT?
概言之,我的感觉是,喜忧参半 。
喜的是,依靠“暴力”学习几乎所有人类知识内容,建立无比复杂、庞大的神经网络,这条让AI越来越“聪明”的路看来还能继续走下去 。GPT-3有1750亿个参数用于“记忆”和“提炼”人类知识的规律,很快就要问世的下一代模型GPT-4据说拥有远超GPT-3的复杂度 。
像ChatGPT一样为这条路增加少量强化学习元素,更是能起到画龙点睛的作用,将AI在应用领域的潜力充分激活 。超大模型,强化学习,领域优化——这三件事可能意味着,AI在未来几年内比以前任何时候都更容易深入人类各个应用场景,真正承担起许多原本只有人类能完成的一些工作 。
忧的是,今天的超大规模AI模型依然具备科研“黑盒子”的典型特征 。
科学家和工程师知道如何建立这个“黑盒子”,但无法根据输入数据准确预测“黑盒子”的输出结果,无法精密控制“黑盒子”工作时的行为边界 。这类似于我们知道如何掘开堰塞湖的堤坝让洪水泄出,却无法准确预测洪水会沿着怎样的路径向下游流淌 。
OpenAI的超大规模预训练模型是深度学习诞生以来,AI在行为表现上最接近人类智慧的一个时期 。但因为缺乏理论支持,科学家和工程师并不知道这种依靠海量参数来记忆和拟合人类知识特征的模仿游戏是不是通向通用人工智能(AGI)的正确道路,也很难从科学逻辑的角度准确判断未来的AI会不会一直都是人类的帮手,而不会发展成影响人类进步的负面技术 。


推荐阅读