码迷,mamicode.com
首页 > 编程语言 > 详细

cs231n spring 2017 lecture1 听课笔记

时间:2017-10-12 00:57:38      阅读:221      评论:0      收藏:0      [点我收藏+]

标签:简单的   效果   系统   神经网络   方法   字母   微软   简单   元素   

1. 生物学家做实验发现脑皮层对简单的结构比如角、边有反应,而通过复杂的神经元传递,这些简单的结构最终帮助生物体有了更复杂的视觉系统。1970年David Marr提出的视觉处理流程遵循这样的原则,拿到图像后,先提取角、边、曲线等等简单的几何元素,然后再用深度信息、表面信息等更高层的复杂信息,最后是更高层的更抽象的表达。 深度学习也是遵循这样的基本思想,从最简单的特征出发,通过多层函数传递,实现复杂的功能。

2. Image-Net比赛,2012年突破性的变化,AlexNet用卷积神经网络大幅提高了准确率,之后这种方法成为了主流,层数越来越多,2015年微软用了100多层的网络。之后这种比赛的意义就不大了,因为确实用更多的层数会有更好地效果(比如200层),但对GPU等硬件提出了要求,而且识别率已经超过人类了。

3. 深度学习并不是一下子火起来,2012年的AlexNet本质上和1998年LeCun识别字母的论文一样的。促成近些年深度学习的最主要原因一是硬件的进步,二是数据量的增加。

cs231n spring 2017 lecture1 听课笔记

标签:简单的   效果   系统   神经网络   方法   字母   微软   简单   元素   

原文地址:http://www.cnblogs.com/zonghaochen/p/7653133.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!