假期找了几本关于机器学习的书,将一些比较重要的核心公式整体到这里。模型描述特征空间假设, 寻找线性系数 $ theta $ 以希望用一个线性函数逼近目标向量。逼近的效果好坏叫做 Cost Function, 下面列出的MSE便是其中一种。Linear Regression梯度下降其中 带有正则项Ri... ...
分类:
系统相关 时间:
2019-12-14 09:50:37
阅读次数:
113
函数原型 $$h_\theta(X)=\frac{1}{1+e^{ \theta^TX}}...称h_\theta(X)为y=1的概率。$$ 决策界限的定义 $根据函数表达式可知当z =0时y =0.5当z<0时y<0.5...z=\theta^TX,y=h_\theta(X)$ $故直线z=\th ...
分类:
编程语言 时间:
2019-12-10 22:25:37
阅读次数:
114
1. Sigmod 函数 1.1 函数性质以及优点 其实logistic函数也就是经常说的sigmoid函数,它的几何形状也就是一条sigmoid曲线(S型曲线)。 其中z是一个线性组合,比如z可以等于:b + w1*x1 + w2*x2。通过代入很大的正数或很小的负数到g(z)函数中可知,其结果趋 ...
分类:
其他好文 时间:
2019-12-09 13:51:04
阅读次数:
564
单变量线性回归 (Linear Regression with One Variable) 模型表示(Model Representation) 我们的第一个学习算法是线性回归算法 在这段视频中你会看到这个算法的概况 更重要的是你将会了解 监督学习过程完整的流程 让我们通过一个例子来开始 这个例子是 ...
分类:
其他好文 时间:
2019-12-08 15:31:08
阅读次数:
181
去年 kaggle 比赛的代码时 https://www.kaggle.com/artgor/quick-and-dirty-regression ,出现如下报错,全网都找不到答案。 特此记下。 LightGBMError: Do not support special JSON character ...
分类:
Web程序 时间:
2019-12-05 22:12:26
阅读次数:
976
1, 神经元(Neuron) y = f( w1*x1 + w2*x2 + ... + b) f is activation function Sigmoid function (两端饱和的函数) logistic function $\sigma(x) = \frac{1}{1+exp(-x)}$ ...
分类:
Web程序 时间:
2019-12-05 13:04:09
阅读次数:
101
1.引自https://www.cnblogs.com/bnuvincent/p/9695666.html 2. 基本原理 Logistic Regression和Linear Regression的原理是相似的,按照我自己的理解,可以简单的描述为这样的过程: (1)找一个合适的预测函数(Andre ...
分类:
编程语言 时间:
2019-11-29 17:05:38
阅读次数:
144
梯度下降是线性回归的一种(Linear Regression),首先给出一个关于房屋的经典例子, 面积(feet2)房间个数价格(1000$) 21043400 16003330 24003369 14162232 30004540 ........ 上表中面积和房间个数是输入参数,价格是所要输出的... ...
分类:
其他好文 时间:
2019-11-29 15:40:37
阅读次数:
73
Problem Forecasting time series. Other methods' drawback: even though existing methods (exponential smoothing, auto-regression and moving average-MA, ...
分类:
其他好文 时间:
2019-11-28 18:54:23
阅读次数:
60
我们从上一篇博客中知道了关于单变量线性回归的相关问题,例如:什么是回归,什么是代价函数,什么是梯度下降法。 本节我们讲一下多变量线性回归。依然拿房价来举例,现在我们对房价模型增加更多的特征,例如房间数楼层等,构成一个含有多个变量的模型,模型中的特征为(x0 ,x1 ,...,xn )。 增添更多特征 ...
分类:
系统相关 时间:
2019-11-26 22:43:03
阅读次数:
154