1. 数据增强Data Augmentation 数据增强让有限的数据产生更多的数据,增加训练样本的数量以及多样性(噪声数据),提升模型鲁棒性。神经网络需要大量的参数,许许多多的神经网路的参数都是数以百万计,而使得这些参数可以正确工作则需要大量的数据进行训练,但在很多实际的项目中,我们难以找到充足的 ...
分类:
其他好文 时间:
2020-03-26 17:43:26
阅读次数:
344
支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上。 置信风险: 分类器对 未知样本进行分类,得到的误差。经验风险: 训练好的分类器,对训练样本重新分类得到的误差。即样本误差结构风险:置信风险 + 经验风险结构风险最小化就是为了防止过拟合而提出来的策略,贝叶斯估计中最大后验概率 ...
分类:
其他好文 时间:
2020-03-14 11:12:47
阅读次数:
109
首先剪枝(pruning)的目的是为了避免决策树模型的过拟合。因为决策树算法在学习的过程中为了尽可能的正确的分类训练样本,不停地对结点进行划分,因此这会导致整棵树的分支过多,也就导致了过拟合。决策树的剪枝策略最基本的有两种:预剪枝(pre-pruning)和后剪枝(post-pruning): 预剪 ...
分类:
其他好文 时间:
2020-03-12 14:43:02
阅读次数:
72
提出动机 __训练层面__ 1. CNN对见过的样本有好的泛化能力,而没见过的样本则比较差(例:看过正脸很难识别侧脸)。这就是CNN的归纳偏置(inductive bias)。 2. 为了取得对大部分情况都好的泛化能力,需要各种情况的训练样本,这样大大增加训练代价。 3. Capsule希望能够学习 ...
分类:
Web程序 时间:
2020-02-28 11:48:44
阅读次数:
128
图像增广 在5.6节(深度卷积神经网络)里我们提到过,大规模数据集是成功应用深度神经网络的前提。图像增广(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的 ...
分类:
其他好文 时间:
2020-02-24 00:39:50
阅读次数:
84
以检测缺陷为例。三个工具依次为:标注缺陷——生成样本vec文件——训练样本。 【功能】 opencv_annotation.exe,用来标注缺陷,完成后得到txt文件,内容如下。框选时框住缺陷即可。 opencv_createsamples.exe,生成vec文件。此工具可以把框选的缺陷缩放到指定大 ...
分类:
其他好文 时间:
2020-02-14 20:32:21
阅读次数:
73
决策树在分类、预测、规则提取等领域有着广泛的应用。决策树是一种树状结果,它的每一个叶节点对应一个分类。构造决策树的核心问题是:在每一步如何选择适当的属性对样本做拆分。对于分类问题,从已知类标记的训练样本中学习并构造出决策树是一个自上而下,分而治之的过程。常见的决策树算法如下:ID3算法C4.5算法C ...
分类:
其他好文 时间:
2020-01-30 17:31:55
阅读次数:
118
1.感知器算法原理 两类线性可分的模式类:,设判别函数为:。 对样本进行规范化处理,即类样本全部乘以(-1),则有: 感知器算法通过对已知类别的训练样本集的学习,寻找一个满足上式的权向量。 2.算法步骤 (1)选择N个分属于和类的模式样本构成训练样本集{ X1, …, XN }构成增广向量形式,并进 ...
分类:
编程语言 时间:
2020-01-19 12:53:06
阅读次数:
159
原理 核心思想:相似的输入必会产生相似的输出。 原理:首先从训练样本矩阵中选择第一个特征进行划分,使每个子表中该特征的值全部相同(比如第一个特征是男女,则可以划分出两个子表,男表和女表),然后再在每个子表中选择下一个特征按照同样的规则继续划分更小的子表(比如第二个特征是年龄,我可以划分成三个子表(当 ...
分类:
其他好文 时间:
2020-01-09 13:20:52
阅读次数:
158
一、Multiple Features 这节课主要引入了一些记号,假设现在有n个特征,那么: 为了便于用矩阵处理,令$x_0=1$: 参数$\theta$是一个 维的向量,任一个训练样本也是 维的向量,故对于每个训练样本:$h_\theta(x)=\theta^Tx$。 二、Gradient Dec ...
分类:
其他好文 时间:
2020-01-01 23:41:13
阅读次数:
59