新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎


新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

新智元报道
来源:techtalks
编辑:小智、小匀
【新智元导读】生命游戏是一种基于网格的自动机 。 最近 , 有研究人员发表了一篇论文 , 指出尽管这款游戏很简单 , 但它对神经网络来说 , 仍是个挑战 。 他们的论文研究了神经网络是如何「探索」这款游戏的 , 以及为什么它们会常常错过正确玩法 。
康威生命游戏是英国数学家约翰·康威在1970年发明的细胞自动机 。 这个游戏可以在一个无限大的2D网格上进行 。
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

这款小游戏在科学、计算和人工智能中被热烈讨论 , 因为它代表了即使是简单的规则 , 也可以产生非常复杂的结果 。
在最近的一篇论文中 , 斯沃斯莫尔学院和洛斯阿拉莫斯国家实验室的人工智能研究人员指出 , 尽管康威生命游戏很简单 , 但对人工神经网络来说 , 这仍是个不小的挑战 。
这篇文章名为「神经网络很难学会生命游戏」的文章中, 通过利用神经网络如何探索生命游戏 , 他们发现电脑经常找不到正确解决方案 。
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

什么是生命游戏?
生命游戏是一个零玩家游戏 。 它包括一个二维矩形世界 , 这个世界中的每个方格居住着一个活着的或死了的细胞 。
在生命游戏中 , 对于任意细胞 , 规则如下:
如果一个活细胞的相邻细胞少于两个 , 它就会因数量不足而死亡 。
如果一个活细胞有三个以上的邻居 , 它就会死于过剩 。
如果一个活细胞恰好有两个或三个活的邻居 , 它就能存活 。 如果一个死去的细胞有三个相邻的活细胞 , 它就会复活 。
【新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎】可以把最初的细胞结构定义为种子 , 当所有在种子中的细胞同时被以上规则处理后 , 可以得到第一代细胞图 。 按规则继续处理当前的细胞图 , 可以得到下一代的细胞图 , 周而复始 。
基于这些简单的规则 , 可以调整网格的初始状态 , 来创建稳定 , 振荡 , 滑翔等多种模式 。
例如 , 这就是所谓的滑翔模式 。
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

你也可以使用生命游戏来创建非常复杂的模式 , 比如这个 ,
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

有趣的是 , 无论网格变得多么复杂 , 你都可以使用相同的规则来预测下一个时间步中每个单元的状态 。
现在 , 神经网络的预测能力有目共睹 , 那么 , 深度学习模型能否学到生命游戏的基本规则?
人工神经网络与生命游戏
「我们已经知道了一个解决方案 , 」 雅各布·施普林格 , 斯沃斯莫尔学院计算机科学专业的学生说 , 他同时也是这篇论文的合著者 , 「我们可以手写一个实现生命游戏的神经网络 , 因此我们可以将学到的解决方案与手工制作的解决方案进行比较 。 」
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

雅各布·施普林格 , 斯沃斯莫尔学院计算机科学专业的学生
通过修改深度学习模型预测的未来时间步长值 , 可以很容易地调整游戏的灵活性 。
此外 , 与计算机视觉或自然语言处理等领域不同 , 如果神经网络学会了生命游戏的规则 , 它将达到100% 的准确率 , 不会出现模棱两可的情况——只要出现一次失败 , 那就说明它没有学会正确的规则 。
研究人员首先创建了一个小型卷积神经网络 , 并手动调整其参数 , 以便能够预测网格细胞中的变化顺序 。 这证明了有一个最小的神经网络可以代表生命游戏的规则 。
然后 , 他们尝试着从零开始训练 , 看看同样的神经网络在能否达到最佳设置 。 他们将参数初始化为随机值 , 并对神经网络进行了100万个随机生成的生命游戏实例的训练 。 神经网络达到100%准确率的唯一方法是收敛于手工制作的参数值 。 这意味着人工智能模型已经将生命游戏背后的规则参数化 。
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

但在大多数情况下 , 经过训练的神经网络并没有找到最优解 , 并且 , 随着步数的增加 , 网络性能进一步下降 。
果然 , 训练样本集的选取和初始参数对神经网络的训练效果有很大影响 。
最不幸的是 , 你永远不会知道神经网络的初始权重应该是多少 。 常见的做法是从正态分布中挑选随机值 。
雅各布·施普林格说:「对于许多问题 , 你在数据集方面没有太多的选择; 你可以收集数据 , 所以如果你的数据集有问题 , 你可能很难训练神经网络 。 」
大型神经网络的性能
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

左图: 一个手动调整的卷积神经网络可以非常准确地预测生命游戏的结果 。 右: 实践中 , 当从头开始训练网络时 , 需要一个更大的神经网络来获得同样的结果
在机器学习中 , 提高表现不佳的模型准确性的流行方法之一就是增其复杂性 。 这个技巧在生命的游戏中起到了作用 。
随着研究人员为神经网络增加了更多的层次和参数 , 结果得到了改善 , 训练过程最终产生了一个近乎完美的精确度的解决方案 。
但是 , 一个更大的神经网络也意味着训练和运行深度学习模型的成本增加 。
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

一方面 , 这表明了大型神经网络的灵活性 。 虽然一个巨大的深度学习模型可能不是解决问题的最佳架构 , 但是它有更大的机会找到一个好的解决方案 。 但另一方面 , 它证明了可能存在一种更小的深度学习模型 , 能够提供相同或更好的结果ーー如果你能找到它的话 。
这些发现与麻省理工学院 CSAIL 的人工智能研究人员在 ICLR 2019会议上提出的“彩票假说”是一致的 。 该假设认为 , 对于每一个大型神经网络 , 如果它们的参数已经根据幸运中奖值初始化 , 就会有较小的子网络可以收敛到一个解决方案 , 因此称为「彩票」命名法 。
生命游戏论文的作者写道: 「彩票假说认为 , 当训练一个卷积神经网络时 , 小型幸运子网络会迅速聚集到一个解决方案上 。 」 。 「这表明 , 梯度下降优化不是通过权值空间广泛搜索最优解 , 而是可能依赖于幸运的权值初始化 , 这些权值恰好将子网定位在接近网络收敛到的合理局部极小值的位置 。 」
新智元|这么简单的游戏还卡壳?神经网络在“生命游戏”里苦苦挣扎
本文插图

斯普林格说: 「我认为这些结果肯定会激励人们研究改进的搜索算法 , 或者提高大型网络效率的方法 。 」
中关村软件园20周年 , 品牌活动“创新之源”大会再升级!
9月22日 , 2020创新之源大会 —“科技力量创变未来”在中关村软件园国际会议中心召开 。 大会由中关村软件园主办 , 中关村软件园孵化器、新智元、北京银行共同承办 , 邀请到清华大学副校长、北京量子信息科学研究院院长薛其坤院士 , 清华大学电子工程系主任、信息科学技术学院副院长汪玉 , 科大讯飞联合创始人、讯飞创投董事长徐景明 , 搜狗公司CEO王小川 , 网易集团副总裁、网易有道CEO周枫 , 达闼科技创始人兼CEO黄晓庆 , 浪潮信息副总裁、浪潮AI&HPC总经理刘军, 腾讯自动驾驶业务中心总经理苏奎峰 , 新智元创始人兼CEO杨静等重磅嘉宾出席 。


    推荐阅读