码迷,mamicode.com
首页 >  
搜索关键字:hierarchical softmax    ( 573个结果
跟我学算法-图像识别之图像分类(上)(基础神经网络, 卷积神经网络(CNN), AlexNet,NIN, VGG)
1.基础神经网络: 输入向量x,权重向量w, 偏置标量b, 激活函数sigmoid(增加非线性度) 优化手段: 梯度下降优化, BP向后传播(链式规则) 梯度下降优化: 1. 使用得目标函数是交叉熵 c = 1/nΣΣ[yj*lnaj^2 + (1-yj)*ln(1-aj^2)] yj表示得是样本标 ...
分类:编程语言   时间:2018-10-15 20:49:02    阅读次数:196
人脸识别-arcface损失函数
softmax loss: N是样本的数量,i代表第i个样本,j代表第j个类别,fyi代表着第i个样本所属的类别的分数 fyi是全连接层的输出,代表着每一个类别的分数, 每一个分数即为权重W和特征向量X的内积 每个样本的softmax值即为: L-softmax loss: 假设一个2分类问题,x属 ...
分类:其他好文   时间:2018-10-12 13:57:31    阅读次数:1385
Hierarchical Attention Based Semi-supervised Network Representation Learning
现有方法通常基于单词获取节点的文本特征矩阵,忽略分层结构(单词、句子),该文提出SHANE 模型,集成节点结构,文本和标签信息,并以半监督的方式学习网络嵌入,使用分层注意网络学习节点的文本特征, 两层双向 GRU 提取单词和句子的潜在特征 ...
分类:Web程序   时间:2018-10-09 13:30:53    阅读次数:239
word2vec的数学原理(二)——基于huffuman softmax
一、W2V的两种模型:CBOW和Skip-gram W2V有两种模型,分别为CBOW和skip-gram,CBOW是根据上下文$context(w)$来预测中间词$w$,而skip-gram是根据中间词$w$来预测上下文$context(w)$;他们都有3层结构——输入层,投影层,输出层。(注:无隐 ...
分类:其他好文   时间:2018-10-04 00:06:27    阅读次数:334
TensorFlow 训练 MNIST (1)—— softmax 单层神经网络
1、MNIST数据集简介 首先通过下面两行代码获取到TensorFlow内置的MNIST数据集: MNIST数据集共有55000(mnist.train.num_examples)张用于训练的数据,对应的有55000个标签;共有10000(mnist.test.num_examples)张用于测试的 ...
分类:其他好文   时间:2018-10-01 16:10:18    阅读次数:162
ELK部署详解--logstash
logstash.yml # Settings file in YAML## Settings can be specified either in hierarchical form, e.g.:## pipeline:# batch:# size: 125# delay: 5## Or as f ...
分类:其他好文   时间:2018-10-01 11:56:31    阅读次数:251
论文阅读:DHSNet: Deep Hierarchical Saliency Network for Salient Object Detection
因写作需要,再精读一下这篇文章,只说这篇文章提出的方法。 1、摘要部分: 本文提出了一种基于卷积神经网络的深层次显著性网络(deep hierarchical saliency network,DHSNet)。该网络以下统一称作“DHSNet”。工作流程大体是这样的: 1)首先,DHSNet通过自动 ...
分类:Web程序   时间:2018-09-29 10:20:05    阅读次数:927
【机器学习基础】熵、KL散度、交叉熵
熵(entropy)、KL散度(Kullback-Leibler (KL) divergence)和交叉熵(cross-entropy)在机器学习的很多地方会用到。比如在决策树模型使用信息增益来选择一个最佳的划分,使得熵下降最大;深度学习模型最后一层使用 softmax 激活函数后,我们也常使用交叉... ...
分类:其他好文   时间:2018-09-27 22:53:39    阅读次数:211
对于分类问题的神经网络最后一层的函数:sigmoid、softmax与损失函数
对于分类问题的神经网络最后一层的函数做如下知识点总结: sigmoid函数的定义:令p(y=1)=x,p(y=0)=1-x,f =ln( x/(1-x)),推导出x=ef/(1-ef),即输出的是y=1的概率,这一点与softmax函数不同. 常用损失函数介绍: MSE:均方误差一遍用于回归问题的损 ...
分类:其他好文   时间:2018-09-27 14:21:54    阅读次数:523
softmax 杂谈
在多分类问题中,我们可以使用 softmax 函数,对输出的值归一化为概率值。下面举个例子: Press to save figure to "net.svg", to break c:\programdata\anaconda3\lib\site packages\viznet\context.p ...
分类:其他好文   时间:2018-09-25 19:38:37    阅读次数:149
573条   上一页 1 ... 18 19 20 21 22 ... 58 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!