有了ChatGPT,读书还有用吗?


有了ChatGPT,读书还有用吗?

文章插图
李子 技术社会学博士,哥伦比亚大学医学人文和伦理系博士后研究员
上半年ChatGPT横空出世,人工智能的潜能展现,给许多职业带来了一场生存危机的探讨 。GPT能够通过律师和工程师资格考试,写的大学论文能不挂科,甚至能够“理解”笑话 。它能回答人们的疑问,组织生动的语言结构,模仿各式各样的语言风格;而大语言模型和图像生成 AI 结合的技术,例如Midjourney,能够让丝毫没有受过艺术训练的人,用只言片语“创造”出惊人的艺术图像 。
ChatGPT 的本质,实际上是大语言模型(Large Language Model,LLM)叠加生成式人工智能 。大语言模型,顾名思义,就是大,用海量的语素,用机器学习的方法训练一个计算机模型 。生成式,则是用预测的方式,在对话时把最有可能出现的语素联系展示出来 。
对于知识“加工”和“消费”者而言,大语言模型加上生成式人工智能的能力是巨大的 。海量语素数据、深度神经网络和极大的计算力,相当于把整个来自互联网的知识“压平“,再通过人机互动进行“整装” 。
从计算逻辑上来讲,ChatGPT 相当于一个更加强大的搜索引擎 。普通的搜索引擎例如谷歌和百度通过爬虫的模式“扒”整个互联网的信息,并通过复杂的算法进行排序 。而人工智能使用机器学习的方法,相当于把这些扒出来的信息,用预测的方式进行了符合语言逻辑的整理 。知识加工变得更加便捷迅速,消费变得更加简明清晰——有的时候甚至过于简便,给了考试论文作弊以可乘之机 。
针对这一点,技术乐观主义者认为,既然从今以后机器能够生成的内容,或许也不需要大多数的人类去动脑实现,就如同搜索引擎取代了图书馆的馆藏卡片、计算器取代珠算一般 。的确,那些需要大量重复的文字类工作,或者机械的列举、整理工作,即使 AI 不介入最终决策,确实也能够提供相当程度的生产力,辅助人类进行知识的加工和消费 。
那么,读书还有用吗?各大高校、研究机构的人员,是否也可以下班了?
机器能“学到”什么
大语言模型和生成式人工智能,为将来的知识“生产者”带来了一个绕不过的课题:何为知识?如何生产多样、公正、真实的知识?
人工智能的“学习”能力是惊人的 。现有的大语言模型和人工智能的应用,都脱不开机器学习作为其底色 。“学习”二字,实质上是用大量的数据训练预测模型,并在预测的准确度,以及普适性上找到平衡 。这种预测实际上是基于现有知识的,语言模型的预测,也是基于现有语言之间的联系 。例如输入“红烧”,机器预测“肉”;然后根据更多的输入,例如地点,人,习惯等等,给出更加精确的预测,比如“外婆做的红烧牛肉”等等 。
这种预测是怎么实现的呢?我们熟悉的坐标系是二维的 。比如整个人群中,身高和体重有一个大致的对应关系,给出身高,机器预测一个平均体重,就是基于现有数据的预测 。再加入另一个维度,比如性别,那么就成为了一个三维坐标,男女的预测会有所不同 。如此下去,数据的维度可以是无限的,而机器学习的模型,就是在人脑所不能想象的多维空间中寻找此类联系,并不断调整各个维度之间的权重 。比如,身高对体重的预测“有多重要”,可以在大量的数据输入之后进行调整 。
因此,基于机器学习的人工智能,会把各种维度的数据,在更高维度的空间里联系起来,有发现数据之间潜在联系的能力,也会“学到”一些现实中不存在的、但很可能发生的联系 。用在语言模型中,人工智能也能学习到不同的语言风格,挖掘现有文字中的“精髓”和“问题” 。
数据越大,模型越成熟,其计算和挖掘能力也越高 。类似于 BERT、GPT 这样诞生于大机构的 AI,被许多人认为走到了技术的“拐点”,量变产生质变也不无道理——这对于知识生产者来讲是好事 。不过,大模型也有其内在的问题,模型越大,问题也越尖锐,特别是涉及到知识的多样、公正和真实方面 。
怎样才能生产真实
且公正的知识?
新的知识能从现有知识的连结和新模式中产生,这一点不管是从人还是机器的层面都是成立的 。然而,现有的知识是否足够?是否充分?是否公平?如果现有知识的基础是不足的、甚至是有偏见的,那么在此基础上建立的新知识也会产生偏差 。


推荐阅读