苹果|BERT 蒸馏在垃圾舆情识别中的探索

文章图片

文章图片

文章图片

文章图片

文章图片

文章图片

文章图片
简介:近来 BERT等大规模预训练模型在 NLP 领域各项子任务中取得了不凡的结果 , 但是模型海量参数 , 导致上线困难 , 不能满足生产需求 。 舆情审核业务中包含大量的垃圾舆情 , 会耗费大量的人力 。 本文在垃圾舆情识别任务中尝试 BERT 蒸馏技术 , 提升 textCNN 分类器性能 , 利用其小而快的优点 , 成功落地 。
近来 BERT等大规模预训练模型在 NLP 领域各项子任务中取得了不凡的结果 , 但是模型海量参数 , 导致上线困难 , 不能满足生产需求 。 舆情审核业务中包含大量的垃圾舆情 , 会耗费大量的人力 。 本文在垃圾舆情识别任务中尝试 BERT 蒸馏技术 , 提升 textCNN 分类器性能 , 利用其小而快的优点 , 成功落地 。
风险样本如下:
一传统蒸馏方案目前 , 对模型压缩和加速的技术主要分为四种:
- 参数剪枝和共享
- 低秩因子分解
- 转移/紧凑卷积滤波器
- 知识蒸馏
1soft label知识蒸馏最早是 2014 年 Caruana 等人提出方法 。 通过引入 teacher network(复杂网络 , 效果好 , 但预测耗时久) 相关的软标签作为总体 loss 的一部分 , 来引导 student network(简单网络 , 效果稍差 , 但预测耗时低) 进行学习 , 来达到知识的迁移目的 。 这是一个通用而简单的、不同的模型压缩技术 。
- 大规模神经网络 (teacher network)得到的类别预测包含了数据结构间的相似性 。
- 有了先验的小规模神经网络(student network)只需要很少的新场景数据就能够收敛 。
- Softmax函数随着温度变量(temperature)的升高分布更均匀 。
其中 ,
由此我们可以看出蒸馏有以下优点:
- 学习到大模型的特征表征能力 , 也能学习到one-hot label中不存在的类别间信息 。
- 具有抗噪声能力 , 如下图 , 当有噪声时 , 教师模型的梯度对学生模型梯度有一定的修正性 。
- 一定的程度上 , 加强了模型的泛化性 。
2using hints(ICLR 2015) FitNets Romero等人的工作不仅利用教师网络的最后输出logits , 还利用了中间隐层参数值 , 训练学生网络 。 获得又深又细的FitNets 。
中间层学习loss如下:
作者通过添加中间层loss的方式 , 通过teacher network 的参数限制student network的解空间的方式 , 使得参数的最优解更加靠近到teacher network , 从而学习到teacher network的高阶表征 , 减少网络参数的冗余 。
3co-training(arXiv 2019) Route Constrained Optimization (RCO) Jin和Peng等人的工作受课程学习(curriculum learning)启发 , 并且知道学生和老师之间的gap很大导致蒸馏失败导致认知偏差 , 提出路由约束提示学习(Route Constrained Hint Learning) , 把学习路径更改为每训练一次teacher network , 并把结果输出给student network进行训练 。 student network可以一步一步地根据这些中间模型慢慢学习 , from easy-to-hard 。
训练路径如下图:
二Bert2TextCNN蒸馏方案为了提高模型的准确率 , 并且保障时效性 , 应对GPU资源紧缺 , 我们开始构建bert模型蒸馏至textcnn模型的方案 。
方案1:离线logit textcnn 蒸馏使用的是Caruana的传统方法进行蒸馏 。
方案2:联合训练 bert textcnn 蒸馏参数隔离:teacher model 训练一次 , 并把logit传给student 。 teacher 的参数更新至受到label的影响 , student 参数更新受到teacher loigt的soft label loss 和label 的 hard label loss 的影响 。
方案3:联合训练 bert textcnn 蒸馏参数不隔离: 与方案2类似 , 主要区别在于前一次迭代的student 的 soft label 的梯度会用于teacher参数的更新 。
方案4:联合训练 bert textcnn loss 相加teacher 和student 同时训练 , 使用mutil-task的方式 。
方案5:多teacher大部分模型 , 在更新时候需要覆盖线上历史模型的样本 , 使用线上历史模型作为teacher , 让模型学习原有历史模型的知识 , 保障对原有模型有较高的覆盖 。
实验结果如下:
从以上的实验 , 可以发现很有趣的现象 。
1)方案2和方案3均使用先训练teacher , 再训练student的方式 , 但是由于梯度返回更新是否隔离的差异 , 导致方案2低于方案3 。 是由于方案3中 , 每次训练一次teacher , 在训练一次student , student学习完了的soft loss 会再反馈给teacher , 让teacher知道指如何导student是合适的 , 并且还提升了teacher的性能 。
2)方案4采用共同更新的 , 同时反馈梯度的方式 。 反而textcnn 的性能迅速下降 , 虽然bert的性能基本没有衰减 , 但是bert难以对textcnn每一步的反馈有个正确性的引导 。
3)方案5中使用了历史textcnn 的logit , 主要是为了用替换线上模型时候 , 并保持对原有模型有较高的覆盖率 , 虽然召回下降 , 但是整体的覆盖率相比于单textcnn 提高了5%的召回率 。
1.Dean J. (n.d.). Distilling the Knowledge in a Neural Network. 1–9.
Reference
2.Romero ABallas NKahou S Eet al. FitNets: Hints for Thin Deep Nets[J
.
3.Jin XPeng BWu Yet al. Knowledge Distillation via Route Constrained Optimization[J
.
欢迎各位技术同路人加入蚂蚁集团大安全机器智能团队 , 我们专注于面向海量舆情借助大数据技术和自然语言理解技术挖掘存在的金融风险、平台风险 , 为用户资金安全护航、提高用户在蚂蚁生态下的用户体验 。 内推直达 lingke.djt@antfin.com , 有信必回 。
【苹果|BERT 蒸馏在垃圾舆情识别中的探索】版权声明:本文中所有内容均属于阿里云开发者社区所有 , 任何媒体、网站或个人未经阿里云开发者社区协议授权不得转载、链接、转贴或以其他方式复制发布/发表 。 申请授权请邮件developerteam@list.alibaba-inc.com , 已获得阿里云开发者社区协议授权的媒体、网站 , 在转载使用时必须注明\"稿件来源:阿里云开发者社区 , 原文作者姓名\" , 违者本社区将依法追究责任 。如果您发现本社区中有涉嫌抄袭的内容 , 欢迎发送邮件至:developer2020@service.aliyun.com 进行举报 , 并提供相关证据 , 一经查实 , 本社区将立刻删除涉嫌侵权内容 。
推荐阅读
- 漏洞|华为称继续向预装Google Play手机提供更新;Mac纳入苹果独立维修商维修范围;三星智能手机生产
- 苹果|苹果将于8月28日终止Epic Games的开发者账号
- 苹果|再次确认如果安卓系统不支持微信,鸿蒙OS是最大赢家
- 东南亚|几十天后华为苹果的5nm处理器手机将至,你准备好了么?
- 苹果公司将于8月28日终止Epic Games的开发者帐户
- 【PW早报】苹果公司将于8月28日终止Epic Games的开发者帐户
- 泄漏的备忘录显示:苹果正在对服务业下滑的公司作出重大改变!
- 美国人打美国人,年入百亿的它讽刺苹果,EPIC:谁笑到最后?
- 和讯名家|全球大公司24小时:特斯拉拼多多“打架”、京东携程组“CP”、苹果或暂缓越南制造……
- 东方卫视晚会曝光真实的明星:毛晓彤苹果肌肿胀,孔雪儿脸现凹痕
