朴素贝叶斯用p1(x, y)表示(x, y)属于类别1的概率,P2(x, y)表示(x, y)属于类别2的概率;如果p(c1|x, y) > P(c2|x, y), 那么类别为1如果p(c1|x, y) p0:54 return 155 else: 56 r...
分类:
其他好文 时间:
2015-05-03 11:59:59
阅读次数:
353
回归问题的条件/前提:1) 收集的数据2) 如果的模型,即一个函数,这个函数里含有未知的參数,通过学习,能够预计出參数。然后利用这个模型去预測/分类新的数据。1. 线性回归如果 特征 和 结果 都满足线性。即不大于一次方。这个是针对 收集的数据而言。收集的数据中,每个分量,就能够看做一个特征数据。每...
分类:
其他好文 时间:
2015-04-30 15:44:26
阅读次数:
321
在广告推荐系统中,利用用户和广告之间的信息作为预测的特征
预测的过程其实就是一个二分类的问题,主要就是判定一个用户对这个广告点击或者是不点击的概率是多少
而这个过程是一个伯努利函数,整个过程是一个伯努利分布
而在逻辑回归中主要是在线性回归的基础上利用了一个逻辑函数sigmod,而为什么要用这个函数,逻辑回归与线性回归之间的关系:
1 广义线性模型:
指数家...
分类:
其他好文 时间:
2015-04-26 18:25:38
阅读次数:
149
1.引言一个多层感知机(Multi-Layer Perceptron,MLP)可以看做是,在逻辑回归分类器的中间加了非线性转换的隐层,这种转换把数据映射到一个线性可分的空间。一个单隐层的MLP就可以达到全局最优。2.模型一个单隐层的MLP可以表示如下:一个隐层的MLP是一个函数:$f:R^{D}\r...
分类:
其他好文 时间:
2015-04-26 12:20:05
阅读次数:
261
语义标注还是很难的。
一般流程是:
1. 提取区域特征(如果是像素级别的操作,就对每个像素提取特征;如果是超像素,就对每一个超像素块处理)
2. Boost特征(提取出的特征还是不能直接作为输入,要将特征boost成一个较好的分类器)
3. 一维逻辑回归(利用逻辑回归来进行特征分类)
4. CRF模型做局部光滑
欢迎有识之士一起探讨...
分类:
其他好文 时间:
2015-04-24 09:06:18
阅读次数:
124
章节地址:http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/章节名称:逻辑回归 (Logisitic Regression)第二章的主要问题是什么?是内存不够,艹Error using freadOut of memor...
分类:
其他好文 时间:
2015-04-23 15:01:53
阅读次数:
132
将软间隔支持向量机看做正则化模型上一小节中我们介绍了软间隔支持向量机,该模型允许有错分类数据的存在,从而使模型对数据有更好的适应性,有效避免过拟合的问题。
现在我们回顾一下松弛变量ξn,我们用ξn来记录违反分类边界的数据到边界的距离。
我们可以从另外一个角度,考虑一下ξn的计算:
对于任何一个点,如果该点违反了边界,那么ξn记录了其到边界的距离;如果没有违反,ξn为0。
所以我们可以...
分类:
其他好文 时间:
2015-04-23 02:08:58
阅读次数:
250
1 # -*- coding: utf-8 -*- 2 """ 3 Created on Wed Apr 22 17:39:19 2015 4 5 @author: 90Zeng 6 """ 7 8 import numpy 9 import theano10 import theano.te...
分类:
编程语言 时间:
2015-04-22 22:03:58
阅读次数:
301
梯度下降法的基本思想是函数沿着其梯度方向增加最快,反之,沿着其梯度反方向减小最快。在前面的线性回归和逻辑回归中,都采用了梯度下降法来求解。梯度下降的迭代公式为:θj=θj?α?J(θ)?θj 在回归算法的实验中,梯度下降的步长α为0.01,当时也指出了该步长是通过多次时间找到的,且换一组数据后,.....
分类:
其他好文 时间:
2015-04-20 22:22:53
阅读次数:
972