标签:
Github工程地址:https://github.com/ahangchen/GDLnotes
欢迎star,有问题可以到Issue区讨论
官方教程地址
视频/字幕下载
simple but important classifier
之所以这样建模,是因为线性公式是最简单的数学模型,仅此而已。
Output: Y, predictions for per output class
Softmax回归模型:Wikipedia
正确预测结果应当是只有一个label成立,其他label不成立。这种情况下,预测概率最大的则是最可能的结果。
Example: take this test
好处:可以measure我们与理想情况之间的距离(compare two vectors)
分类器输出:[0.7 0.2 0.1] \<=> 与label对应的真实情况:[1 0 0]
Compare two vectors: cross-entropy
D(S, L) != D(L, S)
Remember: Label don’t log, for label zero
找到合适的W和b,使得S和L的距离D的平均值,在整个数据集n中最小。
D的平均值即是Training loss,求和和矩阵相乘是个大数据的活。
两个参数的误差导致一个呈圆形的loss,所以我们要做的就是找到尽量靠近圆心的weight
机器学习问题变成了一个数值优化
- 解决方法之一:Gradient descent,求导
修改参数,检查误差是否变大,往变小的方向修改,直到抵达bottom。
图中weight是二维的,但事实上可能有极多的weight
下一节实践
如果觉得我的文章对您有帮助,请随意打赏~
[Google Deep Learning 笔记] Logistic Classification
标签:
原文地址:http://blog.csdn.net/u011453773/article/details/51362507