决策树算法 如何能够基于既有的数据来进行分类和回归?决策树是解决这类问题的机器学习模型。 解决思路是:通过样本特征的三个数字特征:1)满足特征值的样本数量;2)1)样本的分类各自数量有多该少;3)总的样本数量,来作为input参数,通过构建/选择的模型就计算出来该特征的指标,对于ID3而是信息增益,... ...
分类:
其他好文 时间:
2019-12-26 21:11:21
阅读次数:
98
转自"https://www.52ml.net/21391.html" 本文主要回顾下几个常用算法的适应场景及其优缺点!(提示:部分内容摘自网络)。 机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。 ...
分类:
编程语言 时间:
2019-12-26 21:00:27
阅读次数:
109
package com.ex.cy.demo4.alg.graph.ewdi; import com.ex.cy.demo4.alg.heap.IndexMinPQ; import java.util.LinkedList; import java.util.List; //A* 算法 // 属于一 ...
分类:
编程语言 时间:
2019-12-24 11:28:43
阅读次数:
104
流处理中时间本质上就是一个普通的递增字段(long型,自1970年算起的微秒数),不一定真的表示时间。 watermark只是应对乱序的办法之一,大多是启发式的,在延迟和完整性之间抉择。(如果没有延迟,就不够完整;如果有延迟,极端情况就是批处理,当然完整性足够高) org.apache.flink. ...
分类:
其他好文 时间:
2019-12-21 20:34:39
阅读次数:
82
然而好像没有平衡树 还是题解包: T1:森林 树上主席树+启发式合并。 然而好像知道标签就没啥了。在启发式合并时可以顺手求lca 然而这题好像可以时间换空间(回收空间) T2:影魔 难点在于考虑贡献的来源 考虑一个区间两端点和区间最值(不含端点)的关系 小,中,大:贡献p1 大,小,大:贡献p2 大 ...
分类:
其他好文 时间:
2019-12-19 09:48:03
阅读次数:
83
森林 看到链上k大,还强制在线,不难想到主席树,发现这道题只有加边操作,而且数据范围特别小,可以考虑启发式合并,每次加边,暴力$dfs$一遍较小的子树即可。 $O(n*log^{2}n)$ 影魔 由于很久之前看过这个题,一直以为不是很可做,然而发现一众大佬全都切掉了,于是好好想了想,发现不是很难。 ...
分类:
其他好文 时间:
2019-12-16 22:31:13
阅读次数:
101
决策树的学习通常包含三个步骤:特征选择、树的生成、树的剪枝。决策树的生成采用启发式的方法,只考虑局部最优,相对地,决策树的剪枝则考虑全局最优 特征选择 信息增益 随机变量$X$的熵定义为: $$H(X)= \sum \limits_{i}p_i\log p_i$$ 熵越大,不确定性越大。从定义可验证 ...
分类:
其他好文 时间:
2019-11-24 15:58:13
阅读次数:
80
"传送门" 题意: 给出一个以$1$为根的有根树。之后有$m$个询问,每个询问为$v_i,h_i$,需要回答以$v_i$为根的子树中,深度为$h_i$的那些结点所代表的字符能否构成回文串。 思路: 静态子树询问,考虑$dsu\ on\ tree$。 深度可以提前处理出来。对一个子树处理时,用一个数组 ...
分类:
其他好文 时间:
2019-11-14 22:21:08
阅读次数:
94
"传送门" 题意: 求子树众数。 思路: $dsu\ on\ tree$模板题,用一个桶记录即可。 感觉$dsu\ on\ tree$这个算法的涉及真是巧妙呀,保留重链的信息,不断暴力轻边,并且不断在子树内递归下去。又由于轻边数量不会超过$O(logn)$,所以总的时间复杂度控制在$O(nlogn) ...
分类:
其他好文 时间:
2019-11-14 22:16:52
阅读次数:
67
本文对八数码问题 启发式搜索 (C++)做了一点点修改 1 //fn=gn+hn 2 3 #include<iostream> 4 #include<queue> 5 #include<stack> 6 7 using namespace std; 8 9 #define num 9 10 11 s ...
分类:
编程语言 时间:
2019-11-14 22:01:54
阅读次数:
147