逻辑回归(Logistic Regression:LR) 逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就是由于这个逻辑函数,使得逻辑回归模型成为了机器学习领域一颗耀眼的明星,更是计算广告学的核心。6.1 分类问题(Classific...
分类:
系统相关 时间:
2015-08-28 13:01:53
阅读次数:
1018
一些关于机器学习和统计方面值得阅读的书籍一下著作都是一些经典的英文著作,不是崇洋媚外,大部分的知识都是由人老外提出并发展的,国内一些书籍质量实在不敢恭维,所以在初始的学习时,最好还是选择英文的著作,解除第一手资料,对于启发式的学习很有帮助,也比较容易站在巨人的肩膀上眺望,做出的成果可能也更加具有贡献性
1. Gaussian Processes for Machine Learning, Carl...
分类:
其他好文 时间:
2015-08-27 13:23:42
阅读次数:
139
6-Support Vector RegressionFor the regression with squared error, we discuss the kernel ridge regression.With the knowledge of kernel function, could ...
分类:
系统相关 时间:
2015-08-27 12:37:46
阅读次数:
183
本笔记为Coursera在线课程《Machine Learning》中的数据降维章节的笔记。十四、降维 (Dimensionality Reduction) 14.1 动机一:数据压缩本小节主要介绍第二种无监督学习方法:dimensionality reduction,从而实现数据的压缩,这样不仅可...
分类:
系统相关 时间:
2015-08-27 00:17:24
阅读次数:
370
《全连接的BP神经网络》 本文主要描述全连接的BP神经网络的前向传播和误差反向传播,所有的符号都用Ng的Machine learning的习惯。下图给出了某个全连接的神经网络图。1前向传播1.1前向传播分别计算第l层神经元的输入和输出;1.1.1偏执项为1时向量整体形式:分量形式: 1.1.2偏执项...
分类:
其他好文 时间:
2015-08-26 17:03:11
阅读次数:
642
《全连接的BP神经网络》 本文主要描述全连接的BP神经网络的前向传播和误差反向传播,所有的符号都用Ng的Machine learning的习惯。下图给出了某个全连接的神经网络图。 前向传播 前向传播 分别计算第l层神经元的输入和输出; 偏执项为1时 向量整体形式: 分量形式: 偏执项为b时 向量整体...
分类:
其他好文 时间:
2015-08-26 15:18:04
阅读次数:
223
5-Kernel Logistic RegressionLast class, we learnt about soft margin and its application. Now, a new idea comes to us, could weapply the kernel trick t...
分类:
系统相关 时间:
2015-08-26 13:33:48
阅读次数:
398
最近跟完了Andrew Ng的Machine Learning前三周的课,主要讲解了机器学习中的线性回归(Linear Regression)和逻辑回归(Logistic Regression)模型。在这里做一下记录。
另外推荐一本统计学习的书,《统计学习方法》李航,书短小精悍,才200多页,但是内容基本上覆盖了机器学习中的理论基础。笔记 主要了解一下监督学习和无监督学习机器学习:是关于计算...
分类:
其他好文 时间:
2015-08-25 16:42:29
阅读次数:
240
For the naive thought to practise my academic English skill, the rest of my notes will be wrriten in my terrrible English.XDIf you have any kind of un...
分类:
系统相关 时间:
2015-08-21 23:09:58
阅读次数:
1009
Image Scaling using Deep Convolutional Neural NetworksThis past summer I interned at Flipboard in Palo Alto, California. I worked on machine learning ...
分类:
Web程序 时间:
2015-08-21 15:33:38
阅读次数:
473