码迷,mamicode.com
首页 >  
搜索关键字:模型训练    ( 283个结果
codebook法分割前景目标
利用codebook法训练得到背景模型后,对背景差分得到的掩模图像去噪声并找到较大连通域。相对于平均背景法,它的分割效果更好些。当然,分割效果和背景模型训练的帧数有很大关系,适当调整一些参数会得到更好的效果。 1 #include "stdafx.h" 2 #include "cv.h" 3 ...
分类:其他好文   时间:2015-11-28 23:15:09    阅读次数:626
Caffe使用step by step:caffe框架下的基本操作和分析
caffe虽然已经安装了快一个月了,但是caffe使用进展比较缓慢,果然如刘老师说的那样,搭建起来caffe框架环境比较简单,但是完整的从数据准备->模型训练->调参数->合理结果需要一个比较长的过程,这个过程中你需要对caffe中很多东西,细节进行深入的理解,这样才可以知道为什么能有这样的结果.....
分类:其他好文   时间:2015-10-16 11:40:09    阅读次数:13566
【sphinx】中文声学模型训练
一 .使用CMUSphinx训练声学模型 CMUSphinx工具包中自带好几个高质量的声学模型。美语模型,法语,中文模型。这些模型是经过优化的,为了得到最佳的性能,大多数指令交互系统能直接用这些模型,甚至一些大词汇量的应用也能直接用他们。 除此之外,CMUSphinx提供了功能,能适应现存的模型,为...
分类:其他好文   时间:2015-09-17 21:04:32    阅读次数:619
[sphinx]中文语言模型训练
一,不用分词的短词组语言模型训练参考资源:http://cmusphinx.sourceforge.net/wiki/tutoriallm sphinx官方教程 1)文本准备 生成文本文件,内含一行一个的单词。头尾有 标记,如下所示,其中单词前后都有空格。文件为utf-8格式,文件名为test.t....
分类:编程语言   时间:2015-09-15 18:12:38    阅读次数:827
[sphinx][语音识别]学习笔记
【http://www.voxforge.org/home/dev】1.声学模型训练 声学模型的训练过程,就是使用你的语音数据生成说话人独立的声学模型,或者将Voxforge在线的声学模型适应你的声音特色。Linux训练你自己特色的声学模型How-to - using a scriptTuto...
分类:其他好文   时间:2015-09-09 13:19:50    阅读次数:240
训练分词模型
1. 训练的文件segmentor_train.txt文件内容,用空格分隔词中国 进出口 银行 与 中国 银行 加强 合作新华社 北京 十二月 二十六日 电 ( 记者 周根良 )今日 三 大 股指 均 小幅 低开,随后 沪深指数 在 权重板块 集体 拉升 的 带动 下 小幅 上涨,但 创业板 却 出...
分类:其他好文   时间:2015-08-12 01:15:45    阅读次数:364
机器学习-Python中训练模型的保存和再使用
在做模型训练的时候,尤其是在训练集上做交叉验证,通常想要将模型保存下来,然后放到独立的测试集上测试,下面介绍的是Python中训练模型的保存和再使用。scikit-learn已经有了模型持久化的操作,导入joblib即可from sklearn.externals import joblib模型保存>>> os.chdir("workspace/model_save") >>> from sklea...
分类:编程语言   时间:2015-07-31 22:01:18    阅读次数:336
机器学习-CrossValidation交叉验证详解
版权声明:本文为原创文章,转载请注明来源。1.原理1.1 概念交叉验证(Cross-validation)主要用于模型训练或建模应用中,如分类预测、PCR、PLS回归建模等。在给定的样本空间中,拿出大部分样本作为训练集来训练模型,剩余的小部分样本使用刚建立的模型进行预测,并求这小部分样本的预测误差或者预测精度,同时记录它们的加和平均值。这个过程迭代K次,即K折交叉。其中,把每个样本的预测误差平方加和...
分类:其他好文   时间:2015-07-28 21:15:20    阅读次数:1786
【机器学习基础】决策树算法
引言在之前的两节博文《混合和装袋》和《自适应提升》中,我们已经有现成的一堆假设g在手中,我们还如何将这些g混合起来,得到更好的分类器。 混合方式可以分为三种情况: 把g看做是同等地位,通过投票或者平均的方式将它们合起来,称为Bagging g是不平等的,有好有坏,一个可行的做法是把g当成是特征的转换,然后丢进线性模型训练就可以了,这称为AdaBoost 如果是不同的条件下,使用不...
分类:编程语言   时间:2015-07-26 12:40:57    阅读次数:172
L1、L2范式及稀疏性约束
L1、L2范式及稀疏性约束假设需要求解的目标函数为: E(x) = f(x) + r(x) 其中f(x)为损失函数,用来评价模型训练损失,必须是任意的可微凸函数,r(x)为规范化约束因子,用来对模型进行限制,根据模型参数的概率分布不同,r(x)一般有:L1范式约束(模型服从高斯分...
分类:其他好文   时间:2015-07-05 16:23:12    阅读次数:106
283条   上一页 1 ... 25 26 27 28 29 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!