|近期必读 ICLR 2021 模型压缩&预训练相关论文( 二 )


|近期必读 ICLR 2021 模型压缩&预训练相关论文
本文插图

论文链接:https://openreview.net/forum?id=5ip8nV7F4Qn
3、《K-PLUG: KNOWLEDGE-INJECTED PRE-TRAINED LANGUAGE MODEL FOR NATURAL LANGUAGE UNDERSTANDING AND GENERATION》
虽然PLM已经在众多NLP任务中证明了有效性 , 但他们中的大多数并没有明确地学习特定领域的知识 。
在本文中 , 我们提出了K-PLUG , 一种基于编解码转换器的知识注入的预训练语言模型 , 它既适用于自然语言理解任务 , 也适用于生成任务 。
具体来说 , 我们提出了五个具有知识意识的自我监督的预训练目标 , 以实现特定领域的知识学习 。
|近期必读 ICLR 2021 模型压缩&预训练相关论文
本文插图

【|近期必读 ICLR 2021 模型压缩&预训练相关论文】论文链接:https://openreview.net/forum?id=5WcLI0e3cAY


推荐阅读