集成学习 集成学习通过构建并结合多个学习器来完成学习任务。 集成学习的思路是通过合并多个模型来提升机器学习性能,这种方法相较于当个单个模型通常能够获得更好的预测结果。这也是集成学习在众多高水平的比赛如奈飞比赛,KDD和Kaggle,被首先推荐使用的原因。 分类 用于减少方差的bagging 用于减少 ...
分类:
其他好文 时间:
2019-11-16 12:16:46
阅读次数:
70
一、配置gitlab上提交代码后在jenkins上自动构建 1、在jenkins上配置gitlab 系统管理 >系统设置 >gitlab配置 2、在gitlab上配置token 3、在jenkins上配置gitlab的token 4、在构建触发器中配置 5、在gitlab中创建一个dev分支然后在j ...
分类:
其他好文 时间:
2019-11-12 13:16:33
阅读次数:
100
8.1、集成学习 集成学习(ensemble learning)通过结合不同的学习算法来解决实际任务,有时也被称为多分类器系统(multi-classifier system)、基于委员会的学习(committee-based learning)。 如下图8.1所示,个体学习器通常由一个现有的学习算 ...
分类:
其他好文 时间:
2019-11-11 23:07:23
阅读次数:
160
首先强调一下,这篇文章适合有很好的基础的人 梯度下降 这里不系统讲,只介绍相关的点,便于理解后文 先放一个很早以前写的 梯度下降 实现 logistic regression 的代码 def tiduxiajiang(): """梯度下降算法""" alpha=0.000001 # 学习率的确定方法 ...
分类:
其他好文 时间:
2019-11-11 12:31:26
阅读次数:
118
从百度云课堂上截图的基础概念,如果之前不了解的可以先看一下这篇博客:https://blog.csdn.net/weixin_30708329/article/details/97262409 不同的数据集训练不同的模型,根据模型进行投票得到最终预测结果 多棵决策树组成森林,每个模型训练集不同和选择 ...
分类:
其他好文 时间:
2019-11-10 19:41:45
阅读次数:
96
一、配置 1、首先在slave节点上写一脚本 [root@node1 script]# cat /application/script/test.sh #!/bin/bash echo "hehe" echo "$1" ...
分类:
其他好文 时间:
2019-11-06 18:40:35
阅读次数:
65
一、整体功能 1、触发上下游构建 2、我们在触发一个job的时候顺便丢一些参数过去,这些参数有可能是我这次编译过程中产生的一些地址,版本号或动态的一些东西丢到下游作为下游的构建参数 3、如何查看上下游构建视图 ...
分类:
其他好文 时间:
2019-11-06 16:31:26
阅读次数:
77
GBDT算法: 所谓的GBDT(Gradient Boost Desicison Tree)就是值在每一步迭代时我们难以真正求得一个新的模型使得其加上原有模型得到的损失最小,但是我们可以用所谓的梯度下降法使得损失减小。 输入:训练数据集$D+\lbrace(x_{1},y_{1}),...,(x_{ ...
分类:
其他好文 时间:
2019-10-17 14:03:33
阅读次数:
83
在集成学习(一)中介绍过,Bagging(bootstrap aggregation)是一种增强模型多样性,降低方差的有效手段,特别适用于高方差,低偏差的模型,例如决策树,注意到Bagging也是一种可并行模型,而Boosting是一种顺序模型,是一类由弱学习器提升到强学习器的算法。注意到,对于绝大 ...
分类:
其他好文 时间:
2019-10-17 01:18:23
阅读次数:
151
总结两种具体的提升算法: AdaBoost算法: AdaBoost的基本想法是不断调整训练数据中样本的权值来训练新的学习器,对于当前误分类的点在下一步中就提高权重“重点关照一下”,最后再将所有的弱分类器做加权和,对于分类正确率高的权重给得大大(更可靠),分类正确率低的给的权重低乃至是负的权重。其具体 ...
分类:
其他好文 时间:
2019-10-16 19:58:16
阅读次数:
100