https://www.cnblogs.com/bonelee/p/8535045.html https://pypi.org/project/imbalanced-learn/ https://imbalanced-learn.org/stable/over_sampling.html ...
分类:
其他好文 时间:
2020-02-13 16:35:18
阅读次数:
48
Survey sampling $\bullet$What is survey sampling?(c.f.census survey)(c.f.:参考,查看,来源于拉丁语) $\bullet$understanding the whole by a $\underline{fraction}$(i ...
分类:
其他好文 时间:
2020-01-27 12:37:44
阅读次数:
103
线性分类器:通过线性映射,将数据分到对应的类别中 ①线性函数:f(xi?, W, b)= W * xi ?+ b W为权值(weights),b为偏移值(bias vector),xi为数据 假设每个图像数据被拉长为一个长度为D的列向量,其大小为[D x 1];W是大小为[K x D]的矩阵,b是大 ...
分类:
其他好文 时间:
2020-01-20 22:24:09
阅读次数:
71
Bias-variance 分解是机器学习中一种重要的分析技术。 给定学习目标和训练集规模,它可以 把一种学习算法的期望误差分解为三个非负项的和,即本真噪音noise、bias和 variance noise 本真噪音是任何学习算法在该学习目标上的期望误差的下界; ( 任何方法都克服不了的误差) b ...
分类:
其他好文 时间:
2020-01-18 10:41:06
阅读次数:
87
第一种是差分 对线上干扰抵抗能力好,但对BIAS上的噪声没办法, 第二种貌似对BIAS上噪声有一定消除作用。 想法不错,回头试验一下。 挺不错。我用的是单端的,第二种的一半。 第二种不靠谱,还不如单端。MTK已经弃用了。 发表于 2013-2-2 10:48:08 | 只看该作者 |只看大图 [复制 ...
分类:
其他好文 时间:
2020-01-11 18:47:54
阅读次数:
91
一、The Problem of Overfitting 欠拟合(high bias):模型不能很好地适应训练集; 过拟合(high variance):模型过于强调拟合原始数据,测试时效果会比较差。 处理过拟合: 1、丢弃一些特征,包括人工丢弃和算法选择; 2、正则化:保留所有特征,但减小参数的值 ...
分类:
其他好文 时间:
2020-01-01 23:59:17
阅读次数:
167
吉布斯采样 (Gibbs Sampling) 首先选取概率向量的一个维度,给定其他维度的变量值当前维度的值,不断收敛来输出待估计的参数。具体地 1.随机给每一篇文档的每一个词 ww,随机分配主题编号 zz2.统计每个主题 zizi 下出现字 ww 的数量,以及每个文档 nn 中出现主题 zizi 中 ...
分类:
其他好文 时间:
2019-12-31 17:07:00
阅读次数:
208
一、概述 训练语料来源:维基媒体 https://dumps.wikimedia.org/backup index.html 汉语数据 用word2vec训练词向量,并用所学得的词向量,计算 pku_sim_test.txt 文件中每行两个词间的余弦距离作为两词相似度,并输出到文件中。 二、数据准备 ...
分类:
编程语言 时间:
2019-12-27 23:35:37
阅读次数:
278
1.作用 L2的作用是防止参数太大。 2.求导过程 Wij是参数矩阵 假设神经网络表达式如下 使用绝对值损失,对应的y'是true label 加入L2损失,损失函数变为如下 按照链式求导法则,损失L对W的导数如下: 新参数的更新如下: 同理可以对bias有L2损失。 ...
分类:
其他好文 时间:
2019-12-25 17:53:29
阅读次数:
524
下文都将 简写成 Module: 就是我们常用的 类,你定义的所有网络结构都必须继承这个类。 Buffer: buffer和parameter相对,就是指那些不需要参与反向传播的参数 示例如下: Parameter: 是 ,也就是组成Module的参数。例如一个 通常由 和`bias require ...
分类:
其他好文 时间:
2019-12-20 22:35:01
阅读次数:
331