码迷,mamicode.com
首页 > 其他好文 > 详细

2020年中文NLP顶级预训练模块

时间:2020-02-21 18:35:41      阅读:87      评论:0      收藏:0      [点我收藏+]

标签:哈工大   预训练模型   github   博客   font   cat   中文   bsp   href   

   对于BERT后时代,不得不说强有力的预训练模型是刷榜、出色完成任务的基础,现在列举几个对此很有帮助的资源,同大家一起进步!!!

一:互联网新闻情感分析复赛top8(8/2745)解决方案及总结; 地址:https://zhuanlan.zhihu.com/p/101554661

大佬的这篇知乎博客总结的非常好,打开了另一块天地,同学们可以深挖这里面的内容

二:CCF BDCI 2019 互联网新闻情感分析 复赛top1解决方案;地址:https://github.com/cxy229/BDCI2019-SENTIMENT-CLASSIFICATION

站在巨人的肩膀上,你将成长更快

三:哈工大的RoBERTa-wwm-ext-large; 地址:https://github.com/ymcui/Chinese-BERT-wwm

深入学习里面的东西

四:中文预训练RoBERTa模型;地址:https://github.com/brightmart/roberta_zh

也不错

少年们,加油吧!!!

2020年中文NLP顶级预训练模块

标签:哈工大   预训练模型   github   博客   font   cat   中文   bsp   href   

原文地址:https://www.cnblogs.com/demo-deng/p/12342027.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!