SoftMax实际上是Logistic的推广,当分类数为2的时候会退化为Logistic分类 其计算公式和损失函数如下, 梯度如下, 1{条件} 表示True为1,False为0,在下图中亦即对于每个样本只有正确的分类才取1,对于损失函数实际上只有m个表达式(m个样本每个有一个正确的分类)相加, 对 ...
分类:
其他好文 时间:
2017-07-22 12:14:47
阅读次数:
249
恢复内容开始 1、softmax函数 2、tensorflow实现例子 输出为: [[ 0.2 0.2 0.2]][[ 0.33333334 0.33333334 0.33333334]][1 3] 输出为: [[ 0.2 0.2 0.2] [ 1. 2. 3. ]][[ 0.33333334 0. ...
分类:
其他好文 时间:
2017-07-21 18:57:42
阅读次数:
178
1:softmax回归 当p(y|x,theta)满足多项式分布,通过GLM对其进行建模就能得到htheta(x)关于theta的函数,将其称为softmax回归。教程中已经给了cost及gradient的求法。须要注意的是一般用最优化方法求解參数theta的时候,採用的是贝叶斯学派的思想,须要加上 ...
分类:
其他好文 时间:
2017-07-21 13:26:33
阅读次数:
177
输入层 隐藏层 激励函数 BR 卷积层: 观察所需要的信息 池化层(下采样层) 最后实现分类 softmax激励函数 输出层 训练方法 数据集进行处理 训练 model 测试方法 加载.mat文件 实现分类、归一化处理 实现测试集结果 ...
分类:
其他好文 时间:
2017-07-18 11:49:44
阅读次数:
150
本文讲解一些其它的常用层,包括:softmax_loss层,Inner Product层,accuracy层,reshape层和dropout层及其它们的参数配置。 1、softmax-loss softmax-loss层和softmax层计算大致是相同的。softmax是一个分类器,计算的是类别的 ...
分类:
其他好文 时间:
2017-07-17 11:12:58
阅读次数:
149
架构:skip-gram(慢、对罕见字有利)vs CBOW(快) · 训练算法:分层softmax(对罕见字有利)vs 负采样(对常见词和低纬向量有利) · 欠采样频繁词:可以提高结果的准确性和速度(适用范围1e-3到1e-5) · 文本(window)大小:skip-gram通常在10附近,CBO ...
分类:
其他好文 时间:
2017-07-15 18:57:21
阅读次数:
150
一、介绍 word2vec是Google于2013年推出的开源的获取词向量word2vec的工具包。它包括了一组用于word embedding的模型,这些模型通常都是用浅层(两层)神经网络训练词向量。 Word2vec的模型以大规模语料库作为输入,然后生成一个向量空间(通常为几百维)。词典中的每个 ...
分类:
其他好文 时间:
2017-07-15 11:23:25
阅读次数:
2472
import tensorflow as tfimport numpy as npimport mathimport tensorflow.examples.tutorials.mnist as mnsess = tf.InteractiveSession()mnist = mn.input_dat ...
分类:
其他好文 时间:
2017-07-14 00:44:37
阅读次数:
337
TensorFlow实现Softmax Regression(回归)识别手写数字。MNIST(Mixed National Institute of Standards and Technology database),简单机器视觉数据集,28X28像素手写数字,只有灰度值信息,空白部分为0,笔迹根 ...
分类:
其他好文 时间:
2017-07-10 00:34:31
阅读次数:
174