?卷积神经网络这个词,应该在你开始学习人工智能不久后就听过了,那究竟什么叫卷积神经网络,今天我们就聊一聊这个问题。 不用思考,左右两张图就是两只可爱的小狗狗,但是两张图中小狗狗所处的位置是不同的,左侧图片小狗在图片的左侧,右侧图片小狗在图片的右下方,这样如果去用图片特征识别出来的结果,两张图的特征很 ...
分类:
其他好文 时间:
2020-01-21 19:49:54
阅读次数:
59
tf.nn.softmax( logits, axis = None, name = None dim = None ) 作用:softmax函数的作用就是归一化。 输入:全连接层(往往是模型的最后一层)的值,一般代码中叫做logits 输出:归一化的值,含义是属于该位置的概率,一般代码叫做prob ...
分类:
其他好文 时间:
2020-01-20 18:53:26
阅读次数:
276
As our state machines grow more complex, we might find ourselves in a situation where a state should only exist if the machine is already in another s ...
分类:
其他好文 时间:
2020-01-20 00:06:47
阅读次数:
77
sigmoid与softmax sigmoid与softmax可以神经网络的输出单元。 原理 sigmoid 预测二值型变量$y$的值,定义如下: $$\hat{y}= \sigma( \omega^{T}h+b)=\frac{1}{1+exp{-( \omega^ {T}h+b)}}$$ 通常使用 ...
分类:
其他好文 时间:
2020-01-09 00:58:35
阅读次数:
145
前言 在 "上一讲" 中,我们通过分析选用了softmax模型,并用tf创建之。本讲的内容就是为了训练这个模型以便于测试。 训练模型 为了训练我们的模型,我们首先需要定义一个指标来评估这个模型是好的。其实,在机器学习,我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss ...
分类:
其他好文 时间:
2020-01-07 00:54:44
阅读次数:
75
Softmax回归介绍 我们知道MNIST的每一张图片都表示一个数字,从0到9。我们希望得到给定图片代表每个数字的概率。比如说,我们的模型可能推测一张包含9的图片代表数字9的概率是80%但是判断它是8的概率是5%(因为8和9都有上半部分的小圆),然后给予它代表其他数字的概率更小的值。 这是一个使用s ...
分类:
其他好文 时间:
2020-01-06 00:00:34
阅读次数:
89
学习pytorch路程之动手学深度学习-3.4-3.7 置信度、置信区间参考:https://cloud.tencent.com/developer/news/452418 本人感觉还是挺好理解的 交叉熵参考博客:https://www.cnblogs.com/kyrieng/p/8694705.h ...
分类:
其他好文 时间:
2020-01-01 23:40:54
阅读次数:
179
来源:https://www.jianshu.com/p/c02a1fbffad6 简单易懂的softmax交叉熵损失函数求导 来写一个softmax求导的推导过程,不仅可以给自己理清思路,还可以造福大众,岂不美哉~ softmax经常被添加在分类任务的神经网络中的输出层,神经网络的反向传播中关键的 ...
分类:
其他好文 时间:
2020-01-01 18:58:50
阅读次数:
67
URL:http://ydwen.github.io/papers/WenECCV16.pdf这篇论文主要的贡献就是提出了Center Loss的损失函数,利用Softmax Loss和Center Loss联合来监督训练,在扩大类间差异的同时缩写类内差异,提升模型的鲁棒性。为了直观的说明softm... ...
分类:
移动开发 时间:
2019-12-25 23:34:57
阅读次数:
108
# 1. 通过TensorFlow-Slim定义卷机神经网络 import numpy as np import tensorflow as tf import tensorflow.contrib.slim as slim from tensorflow.examples.tutorials.mn... ...
分类:
Web程序 时间:
2019-12-19 21:05:40
阅读次数:
98