聚焦迁移学习反向传播缺陷,百度资深工程师带来全新 ICML 工作分享

文章图片
CV在前 , NLP在后 , 迁移学习技术的应用为这两个领域所带来的进展和突破 , 不可谓不瞩目 。
其中 , 预训练模型作为当下迁移学习的一种主流方法 , 让“从零开始训练一个新模型”的时代一去不复返 。 这类在大型数据集上训练好的模型进行微调后 , 便能够较好地适配类似的新目标任务 , 可以极大地节约时间和成本 。
不过 , 天下没有免费的午餐 , 这种方法看似“一劳永逸” , 也需要付出一定的代价 , 其中的一大问题便是 , 由于反向传播带给深层卷积层的更新较小 , 微调得到的模型往往被“吸引”在预训练模型附近 , 无法得到充分更新 。
对此 , 百度的一篇ICML2020工作《RIFLE:BackpropagationinDepthforDeepTransferLearningthroughRe-InitializingtheFully-connectedLayEr》 , 提出了一种简单有效的策略RIFLE , 通过周期性的重新初始化全连接层 , 给深层的特征提取网络带来有意义的更新 , 提升低层次特征的学习 , 从而显著提升迁移学习的效果 。
论文地址:https://proceedings.icml.cc/static/paper_files/icml/2020/3745-Paper.pdf
开源地址:https://github.com/haozhe-an/RIFLE-Paddle-Implementation
基于PaddlePaddle的实现:https://github.com/haozhe-an/RIFLE-Paddle-Implementation
【聚焦迁移学习反向传播缺陷,百度资深工程师带来全新 ICML 工作分享】据悉 , 该方法已超过已有同类方法如Dropout、Dropconnect、StochasticDepth、DisturbLabel以及CyclicLearningRate等 , 在多个数据集上的效果提升0.5%-2% 。
为了深度解析这项工作背后的算法原理以及应用效果 , AI科技评论特别邀请到了论文一作、百度大数据实验室资深工程师李兴建 , 来做论文直播分享!
时间就定在7月24日20:00整 , 各位同学记得准时收看~
分享主题:RIFLE算法:通过重新初始化全连接层加深迁移学习中的梯度反向传播
分享嘉宾:李兴建 , 百度大数据实验室资深工程师 , 多年自然语言处理、深度学习、迁移学习等领域工作经验
分享时间:7月24日(周五晚)20:00整

文章图片
分享背景:
基于一个预训练的深度学习模型进行微调 , 成为一种主流的迁移学习方式 。 该方法虽然简单有效 , 但微调得到的模型经常被『吸引』在预训练模型附近 , 无法得到充分更新 。 我们的工作提出一种简单有效的策略RIFLE , 通过周期性的重新初始化全连接层 , 给深层的特征提取网络带来有意义的更新 , 提升低层次特征的学习 。
推荐阅读
- 澎湃新闻|仝卓事件被写入公职人员学习读本 仝卓事件怎么回事
- 仝卓事件通报成《公职人员政务处分法》学习读本案例
- 仝卓|成范本了!曝仝卓被写入公职人员学习读本 这下子真是大火了!
- 别再学习框架了,看看这些让你起飞的计算机基础知识
- 橘了一只猫|看看孕妈赵丽颖,学习如何打造十足的时尚感!
- 影像|华为P40系列艺术共创影展:聚焦影像艺术 诠释女性力量
- 【部门动态】治安大队召开“坚持政治建警全面从严治警”专题学习会
- python深度学习:为什么要学习深度学习?
- 【聚焦】检察长领衔“博士团”访商会 沈阳市院开启服务民营企业专业化模式
- 三农|学习贯彻全会精神 扎实做好“六稳”“六保”丨 萌萌的“多肉”稳稳的幸福
