人工智能的黎明:从信息动力学的角度看ChatGPT( 二 )


当然,在GPT之前,人工智能在一些特定目标上的表现,例如围棋、作画,已经相当惊艳,但在信息处理的意义上,这些人工智能模型有着跟排序算法一样的问题:输出的信息形式比较简单固定,因此无法通过多次迭代运用这种信息处理能力来实现更高的复杂性 。换言之,信息动力学的复杂性取决于输入、处理、输出这三者中的瓶颈 。
ChatGPT带来的革命,正是由于它在这三个步骤中,都达到了与人类匹敌的复杂性 。GPT可以接收模糊的指令,各种语言、各种程序代码都可以;面对各种输入都能给出比较合理的输出,而输出本身也和人类一样复杂,比如写文章,写代码 。在GPT诞生之后,信息动力学的图示变成了图1b的样子 。即使最新版的GPT-4也还存在着很多问题,对于不熟悉的事情经常犯错甚至胡说,但在复杂性方面,我认为:它已经达到了人类水平 。问题的关键是复杂度而不是具体问题上的表现:一旦处理信息的复杂度达到了人类水平,解决准确度和其他方面的问题已经没有本质的障碍 。以AI的进化速度,一旦它达到人类水平,很快就会远超人类 。
为什么是语言模型?
正因为复杂度是关键,AI的这场革命才会出自大语言模型,而不是其他的AI领域 。
《圣经》第一句说,“太初有言”,《老子》第一句说“道可道,非常道” 。在地球的历史中,人类语言的涌现是一个标志性的事件,从那之后,这个星球上最重要的信息动力学不再是DNA的遗传和变异,而是语言的传播和演进 。从信息动力学的角度来说,ChatGPT出现以来的人工智能迅速进化,可能是在人类语言出现之后第二个如此重要的事件,它标志着这个星球上起决定性作用的信息动力学过程不再由人类脑中的化学过程垄断,而越来越多地发生在芯片上的电子过程中 。
为什么语言如此重要?人类语言不是像蜜蜂的舞蹈那样传递固定信号的工具,而是可以用来描述从具体到抽象的任何东西 。我们不仅可以谈及世界上的事物,还可以描述它们之间的关系,以及关系的关系 。现实世界中只有苹果、桔子、香蕉,人类却可以从中创造出“水果”这一抽象概念 。水果、蔬菜等不同的概念,又同属于“植物”,以及“名词”这两个更概括的概念 。这些不同的概念属于不同的层级,因此一个图像识别的人工智能可以通过训练学会从具体的图像中识别出“水果”这个概念,但是如果要让它再明白水果和蔬菜属于植物,就又需要重新训练 。语言的魔力在于,一旦我们把这些概念都看成词语,它们都是平等存在的,不管是“苹果”还是“植物”,还是“量子力学的非定域性”,都一样可以成为思考的对象 。有了语言,我们脑中的世界不只是外部世界的一个映像,而是多了一个拥有无限可能的新维度 。有了这个新维度,世界的结构变得扁平,原来一层叠一层的抽象结构,全都变得和一只苹果一样可以被我们思考 。运用语言,我们可以理解直线和三角形的概念,总结出欧几里得几何的公理,并且应用它们去证明勾股定理 。一旦证明了所有直角三角形都满足勾股定理,我们不再需要任何数据就可以掌握和运用这个知识 。
语言的界限并非人类能力的界限,但却是思考的界限 。人类可以通过训练学会一些技能,例如骑自行车,这并非通过语言和思考来达成,但不通过语言的技能,就无法通过思考来改进,也无法通过沟通来传播 。例如我们可以写一本骑自行车教程,但读教程不能让我们学会骑自行车,而必须通过实践训练才能学会 。所以我们能够理解和告诉别人的世界的复杂度,最高不会超过语言所能描述的范围 。因此维特根斯坦说:“我的语言的界限意味着我的世界的界限 。”[1]换言之,对于人类来说,信息动力学也就是语言的动力学 。这种动力学既包括严密的推导和论证,也包括跳跃的灵感,甚至白日梦和幻觉 。
正是因为语言在我们的世界中具有这样核心的地位,它在AI的发展中也具有独特的地位 。我们今天看看ChatGPT的发展,不难想象语言模型可以有一天学会自动驾驶,但是反过来一个做自动驾驶的AI很难有一天学会语言 。特德 · 蒋说ChatGPT是“整个互联网的模糊图像”(a blurry jpeg of the web)[2] 。我觉得他说的有些道理,但这个比喻过于静态了 。比起静态的知识来说,更重要的是时间的维度:可以说ChatGPT是对于人类语言动力学的模糊印象 。也就是说,它还没真正学会思考,但是它学会了大略地模仿人类的思考过程 。例如数学家Terence Tao介绍过如何让ChatGPT来建议定理证明,虽然它说的有错,却可以提供新的思路[3] 。这就是因为虽然这个定理在数学中是未知的,但ChatGPT懂得如何把以前看过的其他证明的思路或套路应用到这个定理上来 。有一种常见的观点,认为人工智能只会模仿,不会创造,但我认为模仿和创造之间并没有绝对的鸿沟 。其实人类那些最具创造性的想法,也不是无中生有的,而是在已知的思路和知识背景的基础上生发出来的 。牛顿从苹果落地想到引力,也是已知和未知的类比 。这种类比的过程跟GPT对于定理证明提供的新思路并无本质的区别 。


推荐阅读