Abstract 目前有很多方法来提升CNN的精度。有些方法或者特征只适用于特定的模型或者特定的问题或者小规模的数据集;但是有些方法比如 batch-normalization和residual-connections适用于大多数模型、任务和数据集。我们假定这些通用的特征或者方法包括 Weighte ...
分类:
其他好文 时间:
2020-07-27 15:41:14
阅读次数:
86
发表在 NAACL 2019 MOTIVATION 在这之前,对于文本风格迁移后的效果没有一个很好的统一评价指标,因此,这篇文章做了一个总结,基于之前的一些工作提出从 style transfer intensity 、content preservation、 naturalness 这三个方面来 ...
分类:
其他好文 时间:
2020-07-23 23:10:57
阅读次数:
77
目录 大纲概述 数据集合 数据处理 预训练word2vec模型 一、大纲概述 文本分类这个系列将会有8篇左右文章,从github直接下载代码,从百度云下载训练数据,在pycharm上导入即可使用,包括基于word2vec预训练的文本分类,与及基于近几年的预训练模型(ELMo,BERT等)的文本分类。... ...
分类:
其他好文 时间:
2020-07-22 23:32:07
阅读次数:
80
目录 大纲概述 数据集合 数据处理 预训练word2vec模型 一、大纲概述 文本分类这个系列将会有8篇左右文章,从github直接下载代码,从百度云下载训练数据,在pycharm上导入即可使用,包括基于word2vec预训练的文本分类,与及基于近几年的预训练模型(ELMo,BERT等)的文本分类。... ...
分类:
其他好文 时间:
2020-07-22 23:31:28
阅读次数:
91
Convolutional Neural Networks(CNN) Abstract 随着深度学习的发展,学术界造就了一个又一个优秀的神经网络,目前,最受欢迎的神经网络之一则是卷积神经网络,尽管有时它出现让我们无法理解的黑盒子现象,但它依然是值得我们去探索的,CNN的设计也遵循了活生物体的视觉处理 ...
分类:
编程语言 时间:
2020-07-18 22:03:15
阅读次数:
98
RNN 循环神经网络。像之前的CNN只能处理单独的输入,前一个输入与后一个输入没有关系。但例如NLP中,我们需要前后文的信息。所以RNN应运而生。 标准的RNN中,1)N input -- N output 2)权值共享,W、U、V每个都是一样的。 实际中,这一种结构无法解决所有问题。所以也有了以下 ...
分类:
其他好文 时间:
2020-07-17 19:40:13
阅读次数:
72
关于MixNet:1.NAS:神经架构搜索,从定义一组神经网络可能会用到的“建筑模块”开始,NAS算法用一个RNN做控制器,从这些模块中挑选,然后将它们放在一起,创造某种端到端的架构(好坏取决于选择的模块和它们之间构建的连接);接着训练这个网络,让其收敛,得到验证集上的准确率,通过策略梯度更新控制器 ...
分类:
Web程序 时间:
2020-07-14 21:52:12
阅读次数:
91
1.基于既保持神经网络结构的稀疏性,又充分利用密集矩阵的高计算性能,谷歌提出了一种“基础神经元”的Inception结构; 2.Inception-v1将cnn中常见的卷积,池化操作堆叠到一起(卷积,池化后的尺寸相同,通道增加,神经网络的宽度变宽),在3*3,5*5卷积操作前,3*3池化操作后添加1 ...
分类:
Web程序 时间:
2020-07-14 20:10:17
阅读次数:
91
AlexNet是2012年ImageNet比赛的冠军,将卷积神经网络重新拉入大众视野;AlexNet取得较大突破(创新点):(1)使用了relu非线性激活函数,网络训练时收敛速度更快;(2)标准归一化LRN,活跃的神经元对它周边神经元的抑制,有助于增长泛化能力;(3)Dropout函数,通过修改神经 ...
分类:
Web程序 时间:
2020-07-14 20:07:05
阅读次数:
86
Convolutional Layer import torch in_channels, out_channels = 5, 10 width, height = 100, 100 kernel_size = 3 batch_size = 1 input = torch.randn(batch_s ...
分类:
其他好文 时间:
2020-07-14 13:50:42
阅读次数:
98