模型误差 模型误差 = 偏差(Bias) + 方差(Variance) + 不可避免的误差 偏差方差权衡 Bias Variance Trade off 偏差 (Bias) 导致偏差的主要原因:对问题本身的假设不正确! 如:非线性数据 使用线性回归 欠拟合 方差(Variance) 数据的一点点扰动 ...
分类:
其他好文 时间:
2021-02-04 12:25:17
阅读次数:
0
损失函数 总损失定义为: yi为第i个训练样本的真实值 h(xi)为第i个训练样本特征值组合预测函数 又称最小二乘法 正规方程 理解:X为特征值矩阵,y为目标值矩阵。直接求到最好的结果 缺点:当特征过多过复杂时,求解速度太慢并且得不到结果 其中y是真实值矩阵,X是特征值矩阵,w是权重矩阵 对其求解关 ...
分类:
其他好文 时间:
2021-01-25 11:38:16
阅读次数:
0
线性回归实现 相关库引用 import tensorflow as tf import numpy as np import pandas as pd import matplotlib.pyplot as plt %matplotlib inline 加载数据 data = pd.read_csv ...
分类:
其他好文 时间:
2021-01-18 11:03:49
阅读次数:
0
github地址 机器学习概述 | 01 Matplotlib | 02 Numpy | 03 Pandas | 04 K-近邻算法 | 05 线性回归 | 06 逻辑回归 | 07 决策树算法 | 08 集成学习 | 09 聚类算法 | 10 ...
分类:
其他好文 时间:
2020-12-28 10:57:41
阅读次数:
0
线性回归模型用于处理回归问题,也就是预测连续型数值。线性回归模型是最基础的一种回归模型,理解起来也很容易,我们从解方程组谈起。 ...
分类:
其他好文 时间:
2020-12-25 12:53:24
阅读次数:
0
在机器学习和统计领域,线性回归模型是最简单的模型之一。这意味着,人们经常认为对线性回归的线性假设不够准确。例如,下列2个模型都是线性回归模型,即便右图中的线看起来并不像直线。图1同一数据集的两种不同线性回归模型若对此表示惊讶,那么本文值得你读一读。本文试图解释对线性回归模型的线性假设,以及此类线性假设的重要性。回答上述问题,需要了解以下两个简单例子中线性回归逐步运行的方式。例1:最简单的模型从最简
分类:
其他好文 时间:
2020-12-23 12:42:59
阅读次数:
0
import numpy as np import matplotlib.pyplot as plt from sklearn import datasets # 获取数据 boston = datasets.load_boston() X = boston.data y = boston.targ ...
分类:
其他好文 时间:
2020-12-01 11:49:58
阅读次数:
2
上篇讲解了神经网络最容易被忽视的基础知识一干货|神经网络最容易被忽视的基础知识一1为什么在人工神经网络中的神经元需要激活函数?上图可看做普通的线性分类器,也就是线性回归方程。这个比较基础,效果如右图。当然有时候我们发现这样的线性分类器不符合我们要求时,我们很自然的想到那我们就加多一层,这样可以拟合更加复杂的函数,如下图a:但同时当我们动笔算下,就会发现,这样一个神经网络组合起来,输出的时候无论如何
分类:
其他好文 时间:
2020-11-30 15:16:02
阅读次数:
12
文章主要目录如下:1.批量梯度下降法BGD原理讲解2.随机梯度下降法SGD原理讲解3.小批量梯度详解MBGD原理讲解4.具体实例以及三种实现方式代码详解5.三种梯度下降法的总结在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。下面我们以线性回归算法来对三种梯度下降法进行比较。一般线性回归函数的假设函数为
分类:
其他好文 时间:
2020-11-27 11:55:19
阅读次数:
30
10分钟快速入门PyTorch(1)上一篇教程10分钟入门pytorch(0)我们基本的介绍了pytorch里面的操作单元,Tensor,以及计算图中的操作单位Variable,相信大家都已经熟悉了,下面这一部分我们就从两个最基本的机器学习,线性回归以及logistic回归来开始建立我们的计算图进行运算。由于这个系列文章主要是将pytorch教程的,所以每个算法的太多数学背景以及推导过程就不再细讲
分类:
其他好文 时间:
2020-11-27 10:55:05
阅读次数:
5