码迷,mamicode.com
首页 > 其他好文 > 详细

非凸优化问题

时间:2015-03-05 23:38:41      阅读:325      评论:0      收藏:0      [点我收藏+]

标签:

凸优化就是函数是凸函数,定义域也是凸集,不会有局部极小值问题;非凸优化就是在寻找最小值(或最大值)时会陷入局部极小值,这就是机器学习里某些算法经常遇到的问题。

 

记录今天学习到的matlab函数:

1. numel(A),求A的元素个数,即number of elements;

2. rem(A,a),求余,如果是向量,则返回的也是向量,每个元素对应原来除以a后的余数;

3. assert(expression,‘提示内容’),产生错误提示,当表达式expression不满足时,提示单引号内的内容;

 

深度神经网络:

概念——含多个隐藏层的网络;

作用——可以学习更多复杂的输入特征;

原因——因为每一个隐层都可以对上一层的输出进行非线性变换;

注意:隐层的激活函数应该为非线性函数,如果为线性函数,那么线性函数的组合依然是线性函数,它的表达能力与浅层的线性函数并没有区别,表达能力并没有增强。

 

训练神经网络步骤:

1. 提取训练数据。对数据样本分成多个训练集,把样本的输入、输出的格式,行与列分别是什么,怎么用,搞清楚;

2. 构造初始网络结构。先构造大的网络结构,包括多少层、每一层多少个节点;再确定参数,包括要训练的迭代次数、学习率、动量因子、隐层和输出层的激活函数等;最后初始化权重和偏置。

3. 训练网络结构。

。。。。

 

非凸优化问题

标签:

原文地址:http://www.cnblogs.com/theHanna/p/4316916.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!