新智元|多智能体强化学习成热点,华为诺亚方舟8篇论文入选( 三 )


本文又将统计学的定义拓展到了深度学习领域 。 根据新定义 , RNN依然不具备长期记忆 , 而LSTM模型较复杂无法直接分析 。 若假设LSTM的门不随时间变化 , 则LSTM也不具备长期记忆 。
根据上述理论成果 , 我们对RNN和LSTM做出最小程度的修改 , 使其获得对长期相关性建模的能力 。 类似于ARFIMA模型中的结构 , 我们分别在RNN的输入和LSTM的状态单元处添加了一个长期记忆滤波器 , 得到记忆增强RNN和记忆增强LSTM模型 。
实验表明 , MRNN在长期记忆时间序列预测问题上有明显优势 。 而由一层MLSTM单元和一层LSTM单元组成的双层网络在论文评议数据集的分类任务上的效果远好于一个两层LSTM网络 。
文章链接:
https://arxiv.org/abs/2006.03860
开源代码:
https://github.com/huawei-noah/noah-research/tree/master/mRNN-mLSTM
【与香港大学联合研究工作】
NeuralArchitectureSearchinaProxyValidationLossLandscape
新智元|多智能体强化学习成热点,华为诺亚方舟8篇论文入选
文章图片
本文通过最小化验证损失代理来搜索最佳神经网络结构 。 现有的神经结构搜索(NAS)方法在给定最新的网络权重的情况下发现基于验证样本的最佳神经网络结构 。 但是 , 由于在NAS中需要多次重复进行反向传播 , 使用大量验证样本进行反向传播可能会非常耗时 。
在本文中 , 我们建议通过学习从神经网络结构到对应的损失的映射来近似验证损失情况 。 因此 , 可以很容易地将最佳神经网络结构识别为该代理验证损失范围的最小值 。 同时 , 本文进一步提出了一种新的采样策略 , 可以有效地近似损失情况 。
理论分析表明 , 与均匀采样相比 , 我们的采样策略可以达到更低的错误率和更低的标签复杂度 。 在标准数据集上的实验结果表明 , 通过本方法进行神经结构搜索可以在较低的搜索时间内搜索到精度很高的网络结构 。
LowerComplexityBoundsforFinite-SumConvex-ConcaveMinimaxOptimizationProblems
这个工作主要考虑如下的minimax优化问题:
新智元|多智能体强化学习成热点,华为诺亚方舟8篇论文入选
文章图片
其中每一个fi是L光滑并且关于x凸 , 关于y凹的函数 , 这个优化方程包含了多个流行的机器学习应用问题 , 例如:regularizedempiricalriskminimization , AUCmaximization , robustoptimization和reinforcementlearning 。
我们的工作主要针对通常被用来解决这一优化问题的随机一阶方法 , 即ProximalIncrementalFirst-orderOracle(PIFO)来进行统计分析 , 目标是要找到一个距离该问题的真实解足够接近的鞍点(ε-saddlepoint) 。
新智元|多智能体强化学习成热点,华为诺亚方舟8篇论文入选
文章图片
我们在文章中证明了PIFO算法至少需要复杂度来找到这个鞍点 , 这里需要的条件是fi需要L-smooth以及μ-strongly-convex-μ-strongly-concave , 而作为范围更广的IFO算法 , 有前人证明了它所需要的上界同样是该值 , 所以这个下界是精确的最优下界 。
同时也说明 , 加入额外的stochasticproximal操作并不会减少所需要的样本复杂度 。 更进一步 , 我们对非μ-strongly-convex-μ-strongly-concave的另外两种情况 , 也给出了相应的复杂度下界 。
这些结果都得益于我们提出了一种新的下界分析框架 , 我们的构造把Nesterov’sclassicaltridiagonalmatrix分解为n个组来促进对IFO和PIFO的理论分析 。
【与北京大学联合研究工作】


推荐阅读