码迷,mamicode.com
首页 > Web开发 > 详细

CS229 6.1 Neurons Networks Representation

时间:2018-11-27 01:37:23      阅读:198      评论:0      收藏:0      [点我收藏+]

标签:异或   不可   单元   net   可见   vat   represent   cti   .com   

面对复杂的非线性可分的样本是,使用浅层分类器如Logistic等需要对样本进行复杂的映射,使得样本在映射后的空间是线性可分的,但在原始空间,分类边界可能是复杂的曲线。比如下图的样本只是在2维情形下的示例,假设有100维度,即特征数目是100,若使用logistic来做分类,对于这种线性不可分的情形,要对特征进行各种形式的组合映射,然后用映射后扩充的特征进行分类,可能会增加大量的参数,计算复杂性可想而知,而且可能会造成严重的over-fitting,可见logistic分类的局限性,下面引入NN。

技术分享图片

如下是一个单层网络的示意图,类似于感知机分类器,下图有三个feature,有一个bias unit,其值始终为1,对应的参数为????3,最后其线性组合做一个sigmod映射来得到最终的结果

技术分享图片

下图为含有隐藏层的Neurons Networds,ai(j)中的j表示层数,i表示第 i 个unit,?(j)示层j到j+1的参数矩阵?ij表示前一层的单元j到本层单元i的参数,本示例中?(1)为3*4的矩阵

技术分享图片

更简洁的表示方法,把上一层的输入表示为z(i), 下图中的z(2) 分别表示上一层的activation,这三个值乘以对应的参数,然后做一个sigmod映射之后又可以当下一层的输入,最终我们的H?(x)=g(?(2)*a(2)),可见最后我们不是对初始特征x1 x2 x3做的运算,这可以理解为 Neurons Networks会自动组合特征,从而达到更好的效果。

技术分享图片 

 最后只得注意的是,对于非线性可分的情况,NN也可以进行分类,比如XOR(异或)的情况:

技术分享图片

CS229 6.1 Neurons Networks Representation

标签:异或   不可   单元   net   可见   vat   represent   cti   .com   

原文地址:https://www.cnblogs.com/alan-blog-TsingHua/p/10023844.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!