码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习工程师 - Udacity 深度学习

时间:2018-11-26 22:09:27      阅读:260      评论:0      收藏:0      [点我收藏+]

标签:感知器   梯度   神经网络   bubuko   计算   gis   算法   dac   工程   

一、神经网络
1.为了进行梯度下降,误差函数不能是离散的,而必须是连续的。误差函数必须是可微分的。同时,要将离散预测变成连续预测,方法是将激活函数从阶跃函数变成S函数。

2.最大似然法:选出实际发生的情况所对应的概率更大的模型。
技术分享图片

3.交叉熵(损失函数):将得到的概率取对数,对它们的相反数进行求和。准确的模型得到较低的交叉熵。
交叉熵可以告诉我们两个向量是相似还是不同。
技术分享图片

4.Logistic回归(对数几率回归)
机器学习中最热门和最有用的算法之一,也是所有机器学习的基石。基本上是这样的:
1)获得数据;
2)选择一个随机模型;
3)计算误差;
4)最小化误差,获得更好的模型;
5)完成!
计算误差函数:
技术分享图片

5.感知器算法和对数概率很相似,分类错误的点都会告诉直线靠近点,不同的是对于分类正确的点,感知器算法会说什么也不要做,而对数概率会说远离它。

机器学习工程师 - Udacity 深度学习

标签:感知器   梯度   神经网络   bubuko   计算   gis   算法   dac   工程   

原文地址:https://www.cnblogs.com/paulonetwo/p/10022870.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!