码迷,mamicode.com
首页 >  
搜索关键字:10米跳台比赛 预测结果    ( 145个结果
分类--精确率和召回率
精确率 精确率 指标尝试回答以下问题: 精确率的定义如下: $$\text{Precision} = \frac{TP}{TP+FP}$$ 注意:如果模型的预测结果中没有假正例,则模型的精确率为 1.0。 让我们来计算一下上一部分中用于分析肿瘤的机器学习模型的精确率: 真正例 (TP):1 假正例 ...
分类:其他好文   时间:2018-03-25 12:03:04    阅读次数:197
软件测试第二次作业
左边的flaut在于:for循环中的判断条件i>0,漏掉了i=0的情况。 不产生flaut的测试用例:① X=[], 产生flaut,但不产生error的测试用例:输入325,从5开始,到2,return 1,和预测结果相同,且和正常程序的步骤也一样,所以没产生error。② X=[3,2,5] 产 ...
分类:其他好文   时间:2018-03-14 22:13:17    阅读次数:168
Python机器学习:7.1 集成学习
集成学习背后的思想是将不同的分类器进行组合得到一个元分类器,这个元分类器相对于单个分类器拥有更好的泛化性能。比如,假设我们从10位专家那里分别得到了对于某个事件的预测结果,集成学习能够对这10个预测结果进行组合,得到一个更准确的预测结果。 后面我们会学到,有不同的方法来创建集成模型,这一节我们先解... ...
分类:编程语言   时间:2018-03-12 13:30:31    阅读次数:223
lstm 三角函数预测
Preface 说了好久要手撕一次lstm预测,结果上学期用bucket时遇到issue后就搁了下来,后面还被突然尴尬了几次(⊙﹏⊙)b。 好吧,我先把issue亮出来 "https://github.com/apache/incubator mxnet/issues/8663" ,然而并没有大神鸟 ...
分类:其他好文   时间:2018-03-11 22:29:20    阅读次数:278
GBDT简介
GBDT 序言 GBDT (Gradient Boosting Decision Tree)又叫MART (Multiple Additive Regression Tree),是一种迭代的决策树算法,即该算法由多棵决策树组成,所有决策树的预测结果累加起来做最终答案。 正文 Gradient Boo ...
分类:其他好文   时间:2018-03-05 11:14:57    阅读次数:219
ELM:ELM基于近红外光谱的汽油测试集辛烷值含量预测结果对比—Jason niu
%ELM:ELM基于近红外光谱的汽油测试集辛烷值含量预测结果对比—Jason niu load spectra_data.mat temp = randperm(size(NIR,1)); P_train = NIR(temp(1:50),:)'; T_train = octane(temp(1:5... ...
分类:其他好文   时间:2018-02-09 23:55:22    阅读次数:387
Python多进程库multiprocessing中进程池Pool类的使用
问题起因 最近要将一个文本分割成好几个topic,每个topic设计一个regressor,各regressor是相互独立的,最后汇总所有topic的regressor得到总得预测结果。没错!类似bagging ensemble!只是我没有抽样。文本不大,大概3000行,topic个数为8,于是我写 ...
分类:编程语言   时间:2018-01-23 18:20:23    阅读次数:208
管理信息系统 第三部分 作业
1.DDS和IDDS的组成。 DSS决策支持系统(Decision Support System)是一个基于计算机用于支持业务或组织决策活动的信息系统。 DSS服务于组织管理、运营和规划管理层(通常是中级和高级管理层),并帮助人们对可能快速变化并且不容易预测结果的问题做出决策。决策支持系统可以全计算 ...
分类:其他好文   时间:2018-01-05 19:52:52    阅读次数:160
LR(逻辑回归)
逻辑回归(Logistic regression): 想要理解LR,只需要记住: Sigmoid 函数: y=1/(1+e-z) 线性回归模型: y=wTx+b 最后: y= 1/(1+e-(wTx+b)) 推导为: ln (y/1-y)=wTx+b 它就是用线性回归模型的预测结果去逼近真实标记的对 ...
分类:其他好文   时间:2017-12-29 12:24:58    阅读次数:164
机器学习笔记(5):多类逻辑回归-手动添加隐藏层
了解神经网络原理的同学们应该都知道,隐藏层越多,最终预测结果的准确度越高,但是计算量也越大,在上一篇的基础上,我们手动添加一个隐藏层,代码如下(主要参考自多层感知机 — 从0开始): 有变化的地方,都加了注释,主要改动点有5个: 1. 手动添加了1个隐藏层,该层有256个节点 2. 多了一层,所以参 ...
分类:其他好文   时间:2017-12-14 04:12:53    阅读次数:255
145条   上一页 1 ... 7 8 9 10 11 ... 15 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!