1 from ... import input_data 2 input_data=data_read() 3 import tensorflow as tf 4 5 def conv(name,x,w,b): 6 return tf.nn.relu(tf.nn.bias_add(tf.nn.con... ...
分类:
Web程序 时间:
2017-06-29 23:49:49
阅读次数:
378
转自:http://blog.csdn.net/u014422406/article/details/52805924 sigmoid函数(也叫逻辑斯谛函数): 引用wiki百科的定义: A logistic function or logistic curve is a common “S” sh ...
分类:
其他好文 时间:
2017-06-27 21:18:35
阅读次数:
275
Logistic回归是机器学习中非常经典的一个方法,主要用于解决二分类问题,它是多分类问题softmax的基础,而softmax在深度学习中的网络后端做为常用的分类器,接下来我们将从原理和实现来阐述该算法的思想。 1.原理 a.问题描述 考虑二分类问题,利用回归的思想,拟合特征向量到类别标签的回归, ...
分类:
其他好文 时间:
2017-06-26 19:59:21
阅读次数:
183
1.TensorFlow 官方文档中文版:http://wiki.jikexueyuan.com/project/tensorflow-zh/ 2.softmax回归简单应用(Tensorflow入门):http://wiki.jikexueyuan.com/project/tensorflow-z ...
分类:
其他好文 时间:
2017-06-25 11:58:05
阅读次数:
138
主要介绍了SVM损失函数和softmax分类器的原理以及原型代码实现,比较了两者理解分类器输出矢量的不同角度。 ...
分类:
其他好文 时间:
2017-06-10 16:54:30
阅读次数:
196
广义线性模型是把自变量的线性预测函数当作因变量的估计值。在机器学习中,有很多模型都是基于广义线性模型的,比如传统的线性回归模型,最大熵模型,Logistic回归,softmax回归,等等。今天主要来学习如何来针对某类型的分布建立相应的广义线性模型。 Contents 1. 广义线性模型的认识 2. ...
分类:
其他好文 时间:
2017-06-05 19:23:26
阅读次数:
319
二分类问题Sigmod 在 logistic 回归中,我们的训练集由 个已标记的样本构成: ,其中输入特征。(我们对符号的约定如下:特征向量 的维度为 ,其中 对应截距项 。) 由于 logistic 回归是针对二分类问题的,因此类标记 。假设函数(hypothesis function) 如下: ...
分类:
其他好文 时间:
2017-06-04 15:52:12
阅读次数:
268
午睡被同事吵醒,只好干活。看到微信公众号有一篇文章说老朋友呢,点进去发现原来相关的工作好多,而且好新好细致。 微信的文章可以见这里: 探究最陌生的老朋友Softmax 里面的几篇文章可以看看。 Large-Margin Softmax Loss for Convolutional Neural Ne ...
分类:
其他好文 时间:
2017-06-02 14:54:40
阅读次数:
154
线性回归、对数几率回归模型,本质上是单个神经元。计算输入特征加权和。偏置视为每个样本输入特征为1权重,计算特征线性组合。激活(传递)函数 计算输出。线性回归,恒等式(值不变)。对数几率回归,sigmoid。输入->权重->求和->传递->输出。softmax分类含C个神经元,每个神经元对应一个输出类 ...
分类:
其他好文 时间:
2017-05-21 13:54:52
阅读次数:
174
该工作的主要目的是为了练习运用pycaffe来进行神经网络一站式训练,并从多个角度来分析对应的结果。 目标: 哪些图片被分类错误并进行可视化? 为什么被分错? 每一类是否同等机会被分错? 在迭代过程中,每一类的错误几率如何变化? 是否开始被正确识别后来又被错误识别了? 测试数据集:mnist 代码: ...
分类:
其他好文 时间:
2017-05-21 13:52:02
阅读次数:
636