近年来,自然语言处理(NLP)的应用程序已经无处不在。NLP使用率的快速增长主要归功于通过预训练模型实现的迁移学习概念,迁移学习本质上是在一个数据集上训练模型,然后使该模型能够适应在不同的数据集上执行不同的NLP操作。 ...
分类:
其他好文 时间:
2019-04-18 17:09:46
阅读次数:
164
https://github.com/pytorch/vision/tree/master/torchvision/models 几乎所有的常用预训练模型都在这里面 总结下各种模型的下载地址: 解决下载速度慢的方法: 换移动网络,校园网对于pytorch网站有很大的限速。 ...
分类:
其他好文 时间:
2019-03-27 10:36:29
阅读次数:
2857
BERT预训练模型在诸多NLP任务中都取得最优的结果。在处理文本分类问题时,即可以直接用BERT模型作为文本分类的模型,也可以将BERT模型的最后层输出的结果作为word embedding导入到我们定制的文本分类模型中(如text-CNN等)。总之现在只要你的计算资源能满足,一般问题都可以用BER ...
分类:
其他好文 时间:
2019-01-31 18:19:05
阅读次数:
927
深度学习框架如同智能时代的“发电机”,让人工智能技术更快速地普及到各行各业,推动融合创新,成为智能时代最重要的基础设施。PaddlePaddle作为目前国内唯一功能完备的深度学习框架,经过2018年的快速成长,初具模型领先、性能优越、易学易用的技术特色,以及工业场景下的领先优势。下面我们来盘点一下P ...
分类:
其他好文 时间:
2019-01-28 22:25:50
阅读次数:
199
PaddlePaddle在不断增加官方支持的模型的同时,也在关注预训练模型的丰富度。在过去的版本中,我们已经发布了目标检测Faster-RCNN、MobileNet-SSD、PyramidBox和场景文字识别CRNN-CTC、OCRAttention共计5个预训练模型。近期,在图像分类领域我们一口气发布了四个系列共十个预训练模型,丰富扩充了预训练模型库,助力用户提高构建模型的效率,大大减轻“炼丹”
分类:
其他好文 时间:
2019-01-19 21:47:30
阅读次数:
241
1 大纲概述 文本分类这个系列将会有十篇左右,包括基于word2vec预训练的文本分类,与及基于最新的预训练模型(ELMo,BERT等)的文本分类。总共有以下系列: word2vec预训练词向量 textCNN 模型 charCNN 模型 Bi-LSTM 模型 Bi-LSTM + Attention ...
分类:
其他好文 时间:
2019-01-02 15:08:14
阅读次数:
1378
1 大纲概述 文本分类这个系列将会有十篇左右,包括基于word2vec预训练的文本分类,与及基于最新的预训练模型(ELMo,BERT等)的文本分类。总共有以下系列: word2vec预训练词向量 textCNN 模型 charCNN 模型 Bi-LSTM 模型 Bi-LSTM + Attention ...
分类:
其他好文 时间:
2019-01-02 15:07:33
阅读次数:
600
1 大纲概述 文本分类这个系列将会有十篇左右,包括基于word2vec预训练的文本分类,与及基于最新的预训练模型(ELMo,BERT等)的文本分类。总共有以下系列: word2vec预训练词向量 textCNN 模型 charCNN 模型 Bi-LSTM 模型 Bi-LSTM + Attention ...
分类:
其他好文 时间:
2019-01-02 15:02:29
阅读次数:
970
1 大纲概述 文本分类这个系列将会有十篇左右,包括基于word2vec预训练的文本分类,与及基于最新的预训练模型(ELMo,BERT等)的文本分类。总共有以下系列: word2vec预训练词向量 textCNN 模型 charCNN 模型 Bi-LSTM 模型 Bi-LSTM + Attention ...
分类:
其他好文 时间:
2019-01-02 12:54:39
阅读次数:
406
12月28日 12:38 维基百科词/实体嵌入学习优化工具Wikipedia2Vec,提供源码、文档和12种语言的预训练模型《Wikipedia2Vec: An Optimized Tool for Learning Embeddings of Words and Entities from Wik ...
分类:
其他好文 时间:
2018-12-29 11:02:35
阅读次数:
258