码迷,mamicode.com
首页 >  
搜索关键字:softmax    ( 420个结果
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5)
大白话5分钟带你走进人工智能-第二十节逻辑回归和Softmax多分类问题(5) 上一节中,我们讲解了逻辑回归的优化,本节的话我们讲解逻辑回归做多分类问题以及传统的多分类问题,我们用什么手段解决。 先看一个场景,假如我们现在的数据集有3个类别,我们想通过逻辑回归建模给它区分出来。但我们知道逻辑回归本质 ...
分类:其他好文   时间:2019-05-02 00:20:02    阅读次数:174
【机器学习基础】对 softmax 和 cross-entropy 求导
softmax 和 cross entropy 是机器学习中很常用的函数,softmax 常用来作为 DNN 分类网络最后一层的激活函数,而 cross entropy 也是一种常用的 loss function。熟悉两者的求导有助于理解为什么 tensorflow 会把这两个函数封装成一个 fun... ...
分类:其他好文   时间:2019-04-29 16:03:27    阅读次数:159
Large-Margin Softmax Loss for Convolutional Neural Networks
paper url: https://arxiv.org/pdf/1612.02295year:2017## Introduction交叉熵损失与softmax一起使用可以说是CNN中最常用的监督组件之一。 尽管该组件简单而且性能出色, 但是它只要求特征的可分性, 没有明确鼓励网络学习到的特征具有类... ...
分类:Web程序   时间:2019-04-29 11:01:11    阅读次数:856
softmax函数
std::vector vsoftmax(std::vector &v) { double sum=0; for(auto iter:v) { sum+=exp(iter); } std::vector res; for(int i=0;i ...
分类:其他好文   时间:2019-04-22 12:27:05    阅读次数:119
[转] 理解交叉熵在损失函数中的意义
转自:https://blog.csdn.net/tsyccnh/article/details/79163834 关于交叉熵在loss函数中使用的理解交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用 ...
分类:其他好文   时间:2019-04-18 00:45:09    阅读次数:983
神经网路-SGD-1
SGD神经网络以及python中实现 1、SGD(stochastic gradient descend):<1>数据抽取;<2>计算梯度;<3>参数更新;<4>循环 2、三层SGD网络组件:隐藏层(1),隐藏层(2),输出层,损失函数 2.1隐藏层: <1>激活函数/激励函数:sigmoid函数和 ...
分类:其他好文   时间:2019-04-17 09:51:55    阅读次数:209
如何使用TensorFlow Hub和代码示例
任何深度学习框架,为了获得成功,必须提供一系列最先进的模型,以及在流行和广泛接受的数据集上训练的权重,即与训练模型。 TensorFlow现在已经提出了一个更好的框架,称为TensorFlow Hub,它非常易于使用且组织良好。使用TensorFlow Hub,您可以通过几行代码导入大型和流行的模型 ...
分类:其他好文   时间:2019-04-15 23:06:16    阅读次数:318
Softmax
softmax是什么? 函数 Softmax(x) 也是一个 non-linearity, 但它的特殊之处在于它通常是网络中一次操作. 这是因为它接受了一个实数向量并返回一个概率分布.其定义如下. 定义 x 是一个实数的向量(正数或负数都无所谓, 没有限制). 然后, 第i个 Softmax(x) ...
分类:其他好文   时间:2019-04-08 15:42:07    阅读次数:375
深度学习原理与框架-CNN在文本分类的应用 1.tf.nn.embedding_lookup(根据索引数据从数据中取出数据) 2.saver.restore(加载sess参数)
1. tf.nn.embedding_lookup(W, X) W的维度为[len(vocabulary_list), 128], X的维度为[?, 8],组合后的维度为[?, 8, 128] 代码说明一下:即根据每一行X中的一个数,从W中取出对应行的128个数据,比如X[1, 3]个数据是3062 ...
分类:其他好文   时间:2019-03-25 01:06:33    阅读次数:226
深度学习原理与框架-卷积网络细节-经典网络架构 1.AlexNet 2.VGG
1.AlexNet是2012年最早的第一代神经网络,整个神经网络的构架是8层的网络结构。网络刚开始使用11*11获得较大的感受野,随后使用5*5和3*3做特征的提取,最后使用3个全连接层做得分值得运算,使用的是softmax分类器 2. VGG-net,网络的特点是全部使用3*3的卷积,通常有两个版 ...
分类:Web程序   时间:2019-03-12 10:43:14    阅读次数:220
420条   上一页 1 ... 10 11 12 13 14 ... 42 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!