第一次接触核函数这个概念,是在看SVM的时候,当时看到核函数的作用是将数据从一个特征空间,映射到另一个特征空间的时候,感觉很抽象。后来,看了一个经典的内积平方可以看成是将二维数据,映射到三维数据的例子,感觉好像明白了一些,但是依然不明白,对于大量的数据,计算内积有什么用。后来看了南大周志华的机器学习 ...
分类:
其他好文 时间:
2017-09-29 16:31:00
阅读次数:
187
传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。 从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效果。 从神经科学上来看,中央区酷似神经 ...
分类:
其他好文 时间:
2016-11-30 02:01:51
阅读次数:
204
这一个部分都将只涉及到选择特征的某个子集的方法,将高纬度的特征空间映射到低维度空间的方法(如PCA)都不会涉及到。 一. 单变量 优点:运算速度快,独立于分类器 缺点:忽略的特征之间的联系,忽略了与分类器的联系(在训练模型的时候不能调参来提高性能) 1. 卡方检验 主要内容参考来自 http://b ...
分类:
移动开发 时间:
2016-03-28 18:25:33
阅读次数:
176
特征空间映射1. 问题
简单的0,1分类 – 即标签y=y = {0,10,1}
特征值:x=[x1,x2]x = [x_1, x_2]二维
数据离散点如图:
2.解答
数据是二维的,因此如果利用Logistics Regression 的到的θ\theta只有三个数,所以分类超平面是二维坐标下的直线
由数据分布图可以知道分类超平面应该是一个二次曲线,所以这里利用多项式核函数:K=(...
分类:
其他好文 时间:
2015-08-06 13:21:08
阅读次数:
187
起源:传统激活函数、脑神经元激活频率研究传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效...
分类:
其他好文 时间:
2015-04-24 14:02:48
阅读次数:
10162