关于ChatGPT,黄仁勋和OpenAI联合创始人进行了一场“炉边谈话


关于ChatGPT,黄仁勋和OpenAI联合创始人进行了一场“炉边谈话

文章插图
来源:腾讯科技
编辑整理:李海丹、周小燕
腾讯科技讯 北京时间3月23日0点,英伟达GTC 线上大会发起了一场特别活动,公司创始人兼CEO黄仁勋与Open AI联合创始人及首席科学家伊尔亚-苏茨克维展开了一次“炉边谈话” 。
黄仁勋认为,ChatGPT是“AI界的iphone时刻”,但这一时刻的到来并非一蹴而就,Open AI联合创始人早在十年前便开始关注神经网络,在探索生成式AI的过程中也经历了神经网络如何兼具深度和规模的探索、让机器不受监督地学习能力的突破 。到如今,ChatGPT成为了一款全球关注的“网红工具” 。站在当下回顾它的迭代和发展历程,创意似乎是在创始人和团队的一个个“灵感”之中蹦出,看似理所当然的创新背后究竟有哪些“激动人心的时刻”?
以下为本次对话内容精华整理:
黄仁勋:最近ChatGPT的热潮将人工智能又站在了世界的“风口浪尖”,Open AI公司也受到行业的关注,你也成为了整个行业最为引入注目的年轻工程师、最为顶尖的科学家 。我的第一个问题是,你最初关注和聚焦人工智能领域的出发点是什么?有想过会取得目前如此巨大的成功吗?
伊尔亚-苏茨克维:非常感谢对我的盛情邀请 。人工智能通过不断的深度学习,给我们的世界带来了巨大的变化 。对于我个人来说,其实主要是两方面:
首先,我关注在人工智能深度学习方面的初心,是我们人类对于各种问题,都有一定的直觉性的理解 。对于人类意识的定义,以及我们人类的智力是如何完成这样的预判,这是我特别感兴趣的地方 。
第二,在2002年到2003年期间,当时的我认为“学习”这件事,是只有人类才能完成的任务,计算机是无法做到的 。所以我当时冒出一个想法:如果能够让计算机去不断学习,或许会带来人工智能行业的改变 。
很幸运的是,当时我正在上大学,我研究的专业刚好是研究神经网络学习方向 。神经网络是在AI方面的一个非常重要的进步,我们关注如何通过神经网络去研究深度学习,以及神经网络如何像人类的大脑那样工作,这样的逻辑如何反映在计算机的工作方式上 。当时的我其实并不清楚研究这个领域会带来怎样的职业工作路径,只是觉得这会是一个长期而言比较有前景的行业 。
黄仁勋:在您最开始接触神经网络研究方向时,那个时候的神经网络的规模是多大?
伊尔亚-苏茨克维:那个时候神经网络还没有讨论到规模的概念,只有几百个神经单元,甚至当时的我都没想过,居然能发展到现在如此之多的神经单元、以及如此多的CPU的单位 。当时我们启动了一个数学实验室,基于经费预算有限,我们先开始只做了各种各样不同的实验,并收集了各种不同的问题去测试准确度 。我们都从一点一滴很小的积累,去培训神经网络 。这也是最开始实现的第一个生成式AI模式的雏形 。
黄仁勋:早在2012年之前,你就在神经网络领域有所建树,你是在什么时间点开始觉得计算机视觉以及神经网络和人工智能是未来方向的?
伊尔亚-苏茨克维:在2012年之前大概两年左右,我逐渐意识到深度学习会获得很多关注,这不仅仅是我的直觉,其背后有一套非常扎实的理论基础 。如果计算机的神经网络足够深、规模足够大,它就能够解决一些深层次的硬核内容问题,关键是需要神经网络兼备深度和规模,这意味着我们必须有足够大的数据库和算力 。
我们在优化数据模型上付出很多努力,我们的一个同事基于“秒”做出了神经网络的反馈,用户可以不断培训神经网络,这能让神经网络的规模更大、获得更多数据 。有的人觉得这样的数据集大到不可想象,如果当时的算力能够处理这么大的数据,那么一定能触发一场革命 。
黄仁勋:我们第一次相遇的时候,也是我们对未来的展望真正有所交集的时候 。你当时告诉我说,GPU会影响接下来几代人的生活,你的直觉认为GPU可能会对深度学习的培训有所帮助 。能不能告诉我,你是在什么时候意识到这一点的?
伊尔亚-苏茨克维:我们在多伦多实验室中第一次尝试使用GPU培训深度学习的时候,并不清楚到底如何使用GPU、如何让GPU获得真正的关注 。随着我们获得越来越多的数据集,我们也越来越清楚传统的模型会带来的优势 。我们希望能够加速数据处理的过程,培训过去科学家从来没有培训过的内容 。


推荐阅读