线性可分视角:神经网络的学习就是学习如何利用矩阵的线性变换加激活函数的非线性变换,将原始输入空间投向线性可分/稀疏的空间去分类/回归。 增加节点数:增加维度,即增加线性转换能力。增加层数:增加激活函数的次数,即增加非线性转换次数。 物质组成视角:神经网络的学习过程就是学习物质组成方式的过程。 增加节 ...
分类:
其他好文 时间:
2017-04-02 00:48:08
阅读次数:
191
关于Kalman Filter,有一篇很好的入门文章,建议先通读: Understanding the Basis of the Kalman Filter Via a Simple and ... 不过这篇文章只推导了一元分布的情况,对多元分布的情况只是简单地写出结论。因此这里给出推导过程。 预备 ...
分类:
其他好文 时间:
2017-03-19 10:53:01
阅读次数:
189
本文先介绍两个13,14年的工作:Maxout Networks,Network In Network。网上有不少资料,但是很多作者我相信自己都没有完全理解,在本文中我会尽可能描述清楚。本文重点在于N...
分类:
Web程序 时间:
2017-03-11 23:56:34
阅读次数:
941
转载请注明出处:http://blog.csdn.net/xiaowei_cqu/article/details/7616044 仿射变换可以理解为?经过对坐标轴的放缩,旋转,平移后原坐标在在新坐标域中的值更简洁的说:?仿射变换=线性变换+平移 空间变换对应矩阵的仿射变换。一个坐标通过函数变换的新的 ...
分类:
其他好文 时间:
2017-02-23 13:42:55
阅读次数:
195
1.哈希表 数据储存在一片连续区域:单个节点保存键名(用于校验)和键值(目标数据)。 2.键名通过哈希函数变成索引,索引指定该数据储存位置。 3.常见的哈希函数方法有: 对于数值:线性变换,选取若干位,取余法。 对于字符串,可以转换成数值,映射。 4.键名通过函数映射成索引,经常会发生冲突,常见的处 ...
分类:
其他好文 时间:
2017-02-21 00:54:04
阅读次数:
191
这题的确是个模板 但也要提到有关矩乘的内容: 首先什么是矩阵? 给一个线性变换 F(x) (她可能就是个函数,定义域为向量集) 她可以把一个N维向量变成M维 那么显然x的每一维都可能影响着F(x)的每一维,于是F(x)这个线性变换就应该是N*M个在每两维间的小映射构成的。 于是我们可以把她写成M行N ...
分类:
其他好文 时间:
2017-02-04 21:02:48
阅读次数:
223
1 非线性变换 所谓非线性变换,就是把原始的特征做非线性变换,得到一个新的特征,使用这个新的特征来做线性的分类,则对应到原始的特征空间中,相当于做了非线性的分类。 例如使用二次变换: 则Z空间中的一个直线分类边界,对应到原来空间中是一个二次曲线边界。可能是圆,椭圆,双曲线,抛物线,旋转后的椭圆,直线 ...
分类:
其他好文 时间:
2017-01-24 12:35:32
阅读次数:
230
行列式 行列式在数学中,是一个函数,其定义域为det的矩阵A,取值为一个标量,写作det(A)或 | A | 。行列式可以看做是有向面积或体积的概念在一般的欧几里得空间中的推广。或者说,在 n 维欧几里得空间中,行列式描述的是一个线性变换对“体积”所造成的影响。无论是在线性代数、多项式理论,还是在微 ...
分类:
其他好文 时间:
2017-01-14 20:08:06
阅读次数:
227
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的 ...
分类:
其他好文 时间:
2017-01-07 17:52:55
阅读次数:
419
1. 概述 前面我们已经介绍了最早的神经网络:感知机。感知机一个非常致命的缺点是由于它的线性结构,其只能做线性预测(甚至无法解决回归问题),这也是其在当时广为诟病的一个点。 虽然感知机无法解决非线性问题,但是其给非线性问题的解决提供了一个思路。感知机的局限来自于其线性结构,如果我们能够给其加入非线性 ...
分类:
移动开发 时间:
2016-12-15 17:49:12
阅读次数:
182