tomcat启动过程中报错 熵池 熵池本质上是若干字节。/proc/sys/kernel/random/entropy_avail中存储了熵池现在的大小,/proc/sys/kernel/random/poolsize是熵池的最大容量,单位都是bit。如果entropy_avail的值小于要产生的随 ...
分类:
系统相关 时间:
2018-07-09 17:53:42
阅读次数:
161
先看下百度百科的介绍:最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法还可用于曲线拟合。其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表 ...
分类:
其他好文 时间:
2018-07-03 21:37:32
阅读次数:
318
http://blog.sina.com.cn/s/blog_605f5b4f010109z3.html 首先,CRF,HMM(隐马模型),MEMM(最大熵隐马模型)都常用来做序列标注的建模,像词性标注,True casing。但隐马模型一个最大的缺点就是由于其输出独立性假设,导致其不能考虑上下文的 ...
分类:
其他好文 时间:
2018-06-29 19:27:07
阅读次数:
194
原理 对数损失, 即对数似然损失(Log-likelihood Loss), 也称逻辑斯谛回归损失(Logistic Loss)或交叉熵损失(cross-entropy Loss), 是在概率估计上定义的.它常用于(multi-nominal, 多项)逻辑斯谛回归和神经网络,以及一些期望极大算法的变 ...
分类:
编程语言 时间:
2018-06-23 20:54:44
阅读次数:
960
树模型 应用场景:1.分类 2.回归 分类应用中的树模型等价于if-then规则的集合or定义在特征空间与类空间的条件概率分布,可解释性强 概念: 1. 熵:表示随机变量的不确定程度,其数值越大,则随机变量的不确定性也越大 2.条件熵:表示在已知随机变量X的条件下随机变量Y的不确定性,定义为X已知时 ...
分类:
其他好文 时间:
2018-06-15 12:58:10
阅读次数:
159
决策树:非线性有监督分类模型 随机森林:非线性有监督分类模型 决策树:根节点:顶层分类条件。中间节点:中间分类条件。叶子节点:分类号。分支:每个条件输出。二叉树:节点有2个分支。多叉树:节点至少2分支 决策树:根据样本的纯粹度来分类。 将纯粹度进行量化,计算机才能读懂。 信息熵:量化信息量,由香农提 ...
分类:
其他好文 时间:
2018-06-13 15:00:03
阅读次数:
287
决策树对实例进行分类的树形结构,由节点和有向边组成。其实很像平时画的流程图。 学习决策树之前要搞懂几个概念: 熵:表示随机变量不确定性的度量,定义:H(p)=- 信息增益:集合D的经验熵与特征A条件下D的经验条件熵H(D/A)之差(公式省略,自行查找) 信息增益比:信息增益g(D,A)与训练数据集D ...
分类:
其他好文 时间:
2018-06-12 18:36:12
阅读次数:
169
1、使用示例 2、树模型参数:【很多参数都是用来限制树过于庞大,即担心其过拟合】 # 1.criterion gini or entropy:用什么作为衡量标准 ( 熵值或者Gini系数 )。 # 2.splitter best or random 前者是在所有特征中找最好的切分点 后者是在部分特征 ...
分类:
其他好文 时间:
2018-06-10 15:07:28
阅读次数:
310
来源:中国大学MOOC 损失函数有三种:均方误差、自定义、交叉熵 均方误差: ...
分类:
其他好文 时间:
2018-06-04 20:12:45
阅读次数:
166
决策树的剪枝是将生成的树进行简化,以避免过拟合。 《统计学习方法》上一个简单的方式是加入正则项a|T|,其中|T|为树的叶节点个数。 其中C(T)为生成的决策树在训练集上的经验熵,经验熵越大,表明叶节点上的数据标记越不纯,分类效果越差。有了这个标准,拿到一颗生成好的树,我们就递归的判断一组叶节点,看 ...
分类:
其他好文 时间:
2018-06-04 11:47:05
阅读次数:
145