译自:http://willwolf.io/2017/04/19/deriving-the-softmax-from-first-principles/ 本文的原始目标是探索softmax函数与sigmoid函数的关系。事实上,两者的关系看起来已经是遥不可及:一个是分子中有指数!一个有求和!一个分母 ...
分类:
其他好文 时间:
2017-04-27 10:14:29
阅读次数:
375
start DB2 可以在四个不同层面配置: 一:系统环境变量(System Environment Variable) 系统环境变量用来配置DB2 的使用环境: [c-sharp] view plain copy print? 查看:set | grep DB2 DB2DIR=/opt/ibm/d ...
分类:
数据库 时间:
2017-04-26 13:13:54
阅读次数:
3243
转自:http://blog.csdn.net/lwplwf/article/details/62419087 之前的笔记里实现了softmax回归分类、简单的含有一个隐层的神经网络、卷积神经网络等等,但是这些代码在训练完成之后就直接退出了,并没有将训练得到的模型保存下来方便下次直接使用。为了让训练 ...
分类:
其他好文 时间:
2017-04-26 10:07:12
阅读次数:
274
深度学习说到底就是要调节网络中得权重,使网络的分类结果更接近于训练值。这个重复迭代的过程又是一个线性回归的问题。在这种可能会用到高数,线性代数,概率论中的知识。 一、数学基础提一提。 1.高数中得知识。 高数中最重要的就是微积分了,那在深度学习中出现最多的一个概念就是梯度。什么是梯度呢?要说导数,学 ...
分类:
其他好文 时间:
2017-04-23 20:14:22
阅读次数:
307
文章: http://blog.csdn.net/u014422406/article/details/52805924 sigmoid函数(也叫逻辑斯谛函数): 引用wiki百科的定义: A logistic function or logistic curve is a common “S” s ...
分类:
其他好文 时间:
2017-04-23 01:15:58
阅读次数:
573
ufldl学习笔记与编程作业:Softmax Regression(vectorization加速) ufldl出了新教程,感觉比之前的好。从基础讲起。系统清晰,又有编程实践。 在deep learning高质量群里面听一些前辈说,不必深究其它机器学习的算法,能够直接来学dl。 于是近期就開始搞这个 ...
分类:
其他好文 时间:
2017-04-22 18:48:27
阅读次数:
173
本文简单整理了以下内容: (一)线性回归 (二)二分类:二项Logistic回归 (三)多分类:Softmax回归 (四)广义线性模型 二项Logistic回归是我去年入门机器学习时学的第一个模型,我觉得这个模型很适合用来入门(但是必须注意这个模型有很多很多很多很多可以展开的地方)。比较有意思的是那 ...
分类:
其他好文 时间:
2017-04-21 21:25:43
阅读次数:
634
Softmax回归:K分类问题, 2分类的logistic回归的推广。其概率表示为: 对于一般训练集: 系统参数为: Softmax回归与Logistic回归的关系 当Softmax回归用于2分类问题,那么可以得到: 令θ=θ0-θ1,就得到了logistic回归。所以... ...
分类:
其他好文 时间:
2017-04-05 23:57:07
阅读次数:
362
朴素贝叶斯公式 Hmm隐马尔科夫 动态规划: 线性回归: 逻辑回归(sigmoid):在线性组合的基础上加了个非线性的激活函数,用于解决二分类问题,softmax,用于解决多分类问题。 集成学习(连续模型):针对错误的模型进行训练,设置多个模型,每个模型都有不同的权重,逐层进行逻辑回归、或则其他逐层 ...
分类:
编程语言 时间:
2017-04-02 11:35:31
阅读次数:
165
0: 原则上,loss函数都应该选convex函数,convex函数的定义就是函数上方得点是一个convex集合 1: 之前使用的0-1的数据预测正负样本,loss函数选用的是cross entropy loss, 实际上这里的0-1 cross entropy和seq2seq的softmax cr ...
分类:
其他好文 时间:
2017-03-16 22:03:47
阅读次数:
1301