码迷,mamicode.com
首页 >  
搜索关键字:模型训练    ( 283个结果
【原创】xgboost 特征评分的计算原理
xgboost是基于GBDT原理进行改进的算法,效率高,并且可以进行并行化运算; 而且可以在训练的过程中给出各个特征的评分,从而表明每个特征对模型训练的重要性, 调用的源码就不准备详述,本文主要侧重的是计算的原理,函数get_fscore源码如下, 源码来自安装包:xgboost/python-pa ...
分类:其他好文   时间:2016-10-03 19:11:50    阅读次数:2454
利用LM神经网络和决策树去分类
结果画出的图如上面所示。 主要步骤为: 第一:从原始数据中随机性的抽取数据,然后进行数据探索分析数据,数据探索分析包括: 1.数据清洗 2.缺失值处理 3.数据变换 第二:建模样本数据 1.模型训练 2.模型评价 第三:预处理后诊断数据 第四:自动诊断 第五:根据诊断结果进行模型的优化与重构 最后, ...
分类:其他好文   时间:2016-09-08 12:46:50    阅读次数:261
语言模型训练网站
rnnlm: 1、CSC321 神经网络语言模型 RNN-LSTM http://www.cnblogs.com/rocketfan/p/5052245.html ...
分类:编程语言   时间:2016-09-04 11:42:57    阅读次数:284
learning to rank
Learning to Rank入门小结 + 漫谈 Learning to Rank入门小结 Table of Contents 1 前言 2 LTR流程 3 训练数据的获取4 特征抽取 3.1 人工标注 3.2 搜索日志 3.3 公共数据集 5 模型训练 5.1 训练方法 5.1.1 Pointw ...
分类:其他好文   时间:2016-06-15 23:51:46    阅读次数:435
Tensorflow的MNIST进阶教程CNN网络参数理解
背景之前博文中关于CNN的模型训练功能上是能实现,但是研究CNN模型内部结构的时候,对各个权重系数ww,偏差bb的shape还是存在疑惑,为什么要取1024,为什么取7*7*64,最近找到了一些相关资料,对这个问题有了新的理解,下面和大家分享一下。...
分类:其他好文   时间:2016-05-30 15:07:49    阅读次数:461
数据归一化小结
在各种模型训练,特征选择相关的算法中,大量涉及到数据归一化的问题。比如最常见的情况是计算距离,如果不同维度之间的取值范围不一样,比如feature1的取值范围是[100,200],feature2的取值范围是[1,2],如果数据不做归一化处理,会造成feature1在距离计算中占压倒性的优势,feature2完全体现不出来作用。而数据做归一化处理以后,会让各个不同特征对距离计算的贡献大致相同,从而避...
分类:其他好文   时间:2016-05-12 17:52:49    阅读次数:191
【问题跟踪】KryoException: java.io.IOException: No space left on device
今天在对LDA进行不同参数训练模型,记录其avglogLikelihood和logPerplexity,以便判断模型训练是否收敛时,产生了一个令人极度崩溃的事儿:程序在辛辛苦苦跑了7.3h后...挂了!证据如下: 早上一来看这张图,好像跑完了,然后点进去看...然后就没有然后了 每次迭代都需要9min左右,迭代了近50次跟我说挂了,确实挺让人奔溃的。 先说说我的配置以...
分类:编程语言   时间:2016-04-15 12:07:16    阅读次数:228
数据分析实践:遇到的问题及感想
在使用机器学习算法进行分类预测的过程中,往往最困难的部分在于如何提高模型预测的准确率。有时候当我们辛辛苦苦准备了数据集,进行了繁琐的数据预处理,编码,提交到集群完成了模型训练之后,忽然发现预测的准确率低到让人无语,笔者曾经遇到过进行0,1分类,结果训练出来的模型准确率是51.8%,这和人工随机分类几
分类:其他好文   时间:2016-01-30 13:29:53    阅读次数:170
【sphinx】sphinxTrain文档笔记
如果需要训练的模型词汇量只有50-60个,而且你的所有测试词汇都包含在训练词汇中。那么训练基于单词的模型可能比基于音素的会更好。 基于单词的模型训练方法:1)定义的phoneset改为单词列表 2)词典中的map,是单词指向它本身 而如果训练基于音素的,要保证每个连接状态有充足的例子-5~10个的例...
分类:其他好文   时间:2016-01-22 17:53:24    阅读次数:461
将特征离散成高维的布尔特征可以解决分类模型的非线性问题
原文:http://blog.sina.com.cn/s/blog_818f5fde0102vxf7.html之前实习,公司团队用LR进行推荐排序的时候,都会将所有特征离散成非常高维的0/1特征(千万维级别),然后再进行模型训练。大牛说这样可以解决模型的非线性问题。因为逻辑回归只能拟合线性分类问题,...
分类:其他好文   时间:2015-12-11 12:51:52    阅读次数:242
283条   上一页 1 ... 24 25 26 27 28 29 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!