决策树基本上就是把我们以前的经验总结出来。这里有一个打篮球的训练集。假如我们要出门打篮球,一般会根据“天气”、“温度”、“湿度”、“刮风”这几个条件来判断,最后得到结果:去打篮球?还是不去? 上面这个图就是一棵典型的决策树。我们在做决策树的时候,会经历两个阶段:构造和剪枝。 构造 什么是构造呢?构造 ...
分类:
其他好文 时间:
2019-12-06 23:47:36
阅读次数:
175
题意:HDU1455 给出n个小木棒的长度,他们是又数根长度相同的木棒剪短得来的,问没剪短之前的木棒长度最短是多少. 思路: 见代码:https://www.cnblogs.com/fqfzs/p/9911110.html参考自 1 #include<bits/stdc++.h> 2 using n ...
分类:
其他好文 时间:
2019-12-05 22:28:48
阅读次数:
208
https://www.luogu.org/problem/P1092 题意: 给你三个n长度的字符串, 每个字母代表的值为 0 ……n-1, 要使字符串被替代以后得到的等式成立, 请输出n个数字 分别表示A B C …… 所代表的值 有个方法是暴力枚举 加 剪枝, 但是具体做法有点取巧首先记录三个 ...
分类:
其他好文 时间:
2019-12-02 01:13:40
阅读次数:
100
题目:给定一组不含重复元素的整数数组 nums,返回该数组所有可能的子集(幂集)。说明:解集不能包含重复的子集。 来源:https://leetcode-cn.com/problems/subsets/ 法一:自己的代码 思路:本题无需剪枝,直接回溯,关键是要确定好每次要遍历的元素 from typ ...
分类:
其他好文 时间:
2019-11-30 17:41:26
阅读次数:
82
决策树的学习通常包含三个步骤:特征选择、树的生成、树的剪枝。决策树的生成采用启发式的方法,只考虑局部最优,相对地,决策树的剪枝则考虑全局最优 特征选择 信息增益 随机变量$X$的熵定义为: $$H(X)= \sum \limits_{i}p_i\log p_i$$ 熵越大,不确定性越大。从定义可验证 ...
分类:
其他好文 时间:
2019-11-24 15:58:13
阅读次数:
80
这个式子是是由$A\sim A+N$组成的,那么$A\sim A+N$就只能等于$0\sim N 1$,因此我们每次对$A\sim A+N$的取值做一个新的排列,然后judge一下当前状态是否可行,若可行直接输出解。 显然$N!$过于庞大,需要剪枝。 剪枝: 假设一个这种情况: ~~~ XXXAXX ...
分类:
其他好文 时间:
2019-11-14 21:42:21
阅读次数:
49
" 题目传送门 " DP是不可能DP的,只会搜索 先二分距离,然后此题转化为最小点覆盖,即选择最少的点去覆盖关键节点,覆盖范围为二分的$mid$ 对于覆盖,大部分题解都是用的DP,但是用剪枝后的搜索也能水过去 对于每个关键节点,如果它已经被覆盖了,就不管它,否则选择它的$k$级祖先进行覆盖 在用DF ...
分类:
其他好文 时间:
2019-11-14 11:21:54
阅读次数:
76
讲授决策树的基本概念,分类与回归树的原理,决策树的表示能力,决策树的训练算法,寻找最佳分裂的原理,叶子节点值的标记,属性缺失与替 代分裂,决策树的剪枝算法,决策树应用。 非常直观和易于理解的机器学习算法,最符合人的直观思维,因为生活中很多时候做决策就是用这种树状结构做决定的。 大纲: 基本概念分类与 ...
分类:
其他好文 时间:
2019-11-13 10:45:12
阅读次数:
102
dfs+剪枝(vector的使用也很有必要,减少了查询的次数) ...
分类:
其他好文 时间:
2019-11-10 19:05:27
阅读次数:
95
很暴力的搜索,还没有什么剪枝...... 心得: 【1】如果只查询和修改,用bool比bitset快 【2】rnt在循环中会比int快 【3】减少简单的函数调用 ...
分类:
其他好文 时间:
2019-10-31 16:32:20
阅读次数:
87