码迷,mamicode.com
首页 >  
搜索关键字:hierarchical softmax    ( 573个结果
卷积神经网络
?卷积神经网络这个词,应该在你开始学习人工智能不久后就听过了,那究竟什么叫卷积神经网络,今天我们就聊一聊这个问题。 不用思考,左右两张图就是两只可爱的小狗狗,但是两张图中小狗狗所处的位置是不同的,左侧图片小狗在图片的左侧,右侧图片小狗在图片的右下方,这样如果去用图片特征识别出来的结果,两张图的特征很 ...
分类:其他好文   时间:2020-01-21 19:49:54    阅读次数:59
tf.nn.softmax
tf.nn.softmax( logits, axis = None, name = None dim = None ) 作用:softmax函数的作用就是归一化。 输入:全连接层(往往是模型的最后一层)的值,一般代码中叫做logits 输出:归一化的值,含义是属于该位置的概率,一般代码叫做prob ...
分类:其他好文   时间:2020-01-20 18:53:26    阅读次数:276
[XState] Simplify State Explosion in XState through Hierarchical States
As our state machines grow more complex, we might find ourselves in a situation where a state should only exist if the machine is already in another s ...
分类:其他好文   时间:2020-01-20 00:06:47    阅读次数:77
【深度学习】sigmoid与softmax
sigmoid与softmax sigmoid与softmax可以神经网络的输出单元。 原理 sigmoid 预测二值型变量$y$的值,定义如下: $$\hat{y}= \sigma( \omega^{T}h+b)=\frac{1}{1+exp{-( \omega^ {T}h+b)}}$$ 通常使用 ...
分类:其他好文   时间:2020-01-09 00:58:35    阅读次数:145
Ternsorflow 学习:005-MNIST 实现模型
前言 在 "上一讲" 中,我们通过分析选用了softmax模型,并用tf创建之。本讲的内容就是为了训练这个模型以便于测试。 训练模型 为了训练我们的模型,我们首先需要定义一个指标来评估这个模型是好的。其实,在机器学习,我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss ...
分类:其他好文   时间:2020-01-07 00:54:44    阅读次数:75
Ternsorflow 学习:004-MNIST 构建模型
Softmax回归介绍 我们知道MNIST的每一张图片都表示一个数字,从0到9。我们希望得到给定图片代表每个数字的概率。比如说,我们的模型可能推测一张包含9的图片代表数字9的概率是80%但是判断它是8的概率是5%(因为8和9都有上半部分的小圆),然后给予它代表其他数字的概率更小的值。 这是一个使用s ...
分类:其他好文   时间:2020-01-06 00:00:34    阅读次数:89
小白学习之pytorch框架(4)-softmax回归(torch.gather()、torch.argmax())
学习pytorch路程之动手学深度学习-3.4-3.7 置信度、置信区间参考:https://cloud.tencent.com/developer/news/452418 本人感觉还是挺好理解的 交叉熵参考博客:https://www.cnblogs.com/kyrieng/p/8694705.h ...
分类:其他好文   时间:2020-01-01 23:40:54    阅读次数:179
softmax交叉熵损失函数求导
来源:https://www.jianshu.com/p/c02a1fbffad6 简单易懂的softmax交叉熵损失函数求导 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的 ...
分类:其他好文   时间:2020-01-01 18:58:50    阅读次数:67
Center Loss - A Discriminative Feature Learning Approach for Deep Face Recognition
URL:http://ydwen.github.io/papers/WenECCV16.pdf这篇论文主要的贡献就是提出了Center Loss的损失函数,利用Softmax Loss和Center Loss联合来监督训练,在扩大类间差异的同时缩写类内差异,提升模型的鲁棒性。为了直观的说明softm... ...
分类:移动开发   时间:2019-12-25 23:34:57    阅读次数:108
吴裕雄--天生自然TensorFlow高层封装:使用TensorFlow-Slim处理MNIST数据集实现LeNet-5模型
# 1. 通过TensorFlow-Slim定义卷机神经网络 import numpy as np import tensorflow as tf import tensorflow.contrib.slim as slim from tensorflow.examples.tutorials.mn... ...
分类:Web程序   时间:2019-12-19 21:05:40    阅读次数:98
573条   上一页 1 ... 6 7 8 9 10 ... 58 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!