码迷,mamicode.com
首页 > 其他好文 > 详细

一周论文阅读20200614

时间:2020-06-15 00:02:51      阅读:310      评论:0      收藏:0      [点我收藏+]

标签:模块   mask   space   skin   inter   models   https   语法   rev   

  • Don’t Stop Pretraining: Adapt Language Models to Domains and Tasks
    这篇文章研究nlp 的pretrain模型用任务相关的数据进一步预训练效果会更好。结论比较符合直觉,甚至感觉不用研究都能得出这个结论。方法上作者用robert做实验,研究了计算机、医疗等4个领域的文本分布,并用一些文本分类任务作为评价指标 。然后作者还提出了一个向量化召回去扩充数据的方法。整体感觉并不是很创新
  • Language Models as Knowledge Bases?
    bert等预训练模型不仅可以语言的表征,还能学习进行知识性的记忆
  • Practitioner’s Guide to Statistical Tests
    采用蒙特卡洛的方法对CTR预估中的AB测试进行了分析,学习了蒙特卡洛方法的又一个应该。
  • Perturbed Masking: Parameter-free Probing for Analyzing and Interpreting BERT
    参考科学空间的文章:https://spaces.ac.cn/archives/7476 。用训练好的BERT模型将句子的某些词替换成mask符号,可以得到词与词的相关关系,利用这种相关关系能进行分词、句法分析等工作,这表明bert对语言的语法层面进行了有效的建模。
  • Zero-Shot Learning in Modern NLP
    对nlp中的零次学习进行了简单的介绍
  • Revisiting Few-sample BERT Fine-tuning
    研究了finetune数据较少是怎么fine-tuning bert。提出了三个方法 1.无偏的bert adam优化算法 2.随机初始化bert的最后几层权重 3 更多的训练epoch
  • Language Models as Fact Checkers?
    用bert的语言模型作为fact checker 代替之前的ir模块和证据提取模块,其效果好于之前的baseline。看来语言模型不仅可以encode语法层面的东西,还能够encode知识层面的东西

一周论文阅读20200614

标签:模块   mask   space   skin   inter   models   https   语法   rev   

原文地址:https://www.cnblogs.com/kangheng/p/13022164.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!