DeepTech深科技|人工智能“大杀器”GPT-3遭严重质疑:它其实是在“胡言乱语”,OpenAI违背科学伦理|独家


DeepTech深科技|人工智能“大杀器”GPT-3遭严重质疑:它其实是在“胡言乱语”,OpenAI违背科学伦理|独家
本文插图
自 6 月份 OpenAI 首次发布新型人工智能语言生成系统 GPT-3 以来 , 谷歌新闻已至少收录了 92700 条对该系统及其功能的报道 , 还有众多开放者放出了令人惊叹的测试结果 。 在这股热潮中 , 很多人对 GPT-3 寄予厚望 , 认为它能够拉开人工智能发展的新纪元 。
【DeepTech深科技|人工智能“大杀器”GPT-3遭严重质疑:它其实是在“胡言乱语”,OpenAI违背科学伦理|独家】8 月 22 日 , 纽约大学名誉教授、Robust.AI 创始人兼 CEO 加里 · 马库斯(Gary Marcus)与纽约大学计算机系教授欧内斯特 · 戴维斯(Ernest Davis)联手撰文 , 在《麻省理工科技评论》发表了题为《傲慢自大的 GPT-3:自己都不知道自己在说什么》的文章 。
两人通过一系列对 GPT-3 的测试 , 对其背后的实现逻辑进行了尖锐、合理的质疑 。 在一片热捧声音中 , 这无疑带来了更客观和理性的思考 。
他们告诉 DeepTech , GPT-3 本身并不具有 “革命性” 的变化 , 也不能真正理解语义 , 关键的事情还是要依赖于人类的判断 。
AI 并不能真正理解“语义”
首先 , 两位专家对 “GPT-3 是迈向通用人工智能的重要一步” 的观点 , 明确表达了怀疑态度 。
通用人工智能是指无需在每一项具体任务上进行训练 , 就可以像人类一样进行广泛的推理 。
他们认为 , OpenAI 的技术论文在这个大问题上相当保守 , 或许对许多人来说 , 系统的流畅性似乎就是一项重大进步 。
乍一看 , GPT-3 似乎具有生成人类水平文本的惊人能力 。 他们并不怀疑它可以用来制作娱乐性的超现实主义小说 , 或者应用在其他商业应用上 , 但准确性并不是它的强项 。
如果你再深入挖掘 , 你会发现有些地方依然存在问题:尽管它输出的文本没有语法错误 , 甚至是众所周知的习惯用语 , 但它对世界的理解往往严重偏离现实 , 这意味着你永远不能真正相信它所说的东西 。
Gary Marcus 向 DeepTech 分析称 , “更大的模型和数据无疑会让 GPT-3 表现得更好 , 但仍然没有质的变化 。 这种变化并非革命性的 , 它仍然会面临其前期产品一样的问题 。 ”
“如果我们想让人工智能真正理解语义 , 那么我们应该去深入研究儿童是如何深入理解这个世界的 。 到底是我们基因里的哪些特性 , 让人类儿童可以做到黑猩猩及人工智能无法做到的事情 。 ”
在 Gary Marcus 看来 , 现在 AI 发展水平还远远谈不上可靠 , 它无法完全自主驱动汽车或家用机器人 。 尽管目前 AI 非常适合用来做广告识别、语音识别及为图片加标签等等工作 , 在这方面它的效率人类无法比拟 。 但最关键的一点是 , 如果某项工作的 “结果” 非常重要 , 那么你不能完全信任人工智能 。
DeepTech深科技|人工智能“大杀器”GPT-3遭严重质疑:它其实是在“胡言乱语”,OpenAI违背科学伦理|独家
本文插图
图 | Gary Marcus
Ernest Davis 对 DeepTech 表达了类似的想法 。 他在邮件中表示 , “我同样不认为模型或参数的大小会引发革命性的变化 。 我猜可能的原因是纯粹通过纯文本方式输入可以实现的目标是有限的 。 ”
“如果人工智能希望真的理解语义 , 那么它必须将文字同现实世界建立联系并交互 。 ”
DeepTech深科技|人工智能“大杀器”GPT-3遭严重质疑:它其实是在“胡言乱语”,OpenAI违背科学伦理|独家
本文插图
图 | Ernest Davis
测试样例
根据 OpenAI 此前对 GPT-3 的表述 , 它已经成功地实现了某些 “元学习” 任务 , 比如不同语言之间的翻译等 , 并且它可以自动抽象及提炼输入输出的内容 。 同 GPT-2 相比 , GPT-3 在基准测试的成绩有了大幅提高 , 它的表现或许已经接近现有 NLP 方法的上限 。


推荐阅读