码迷,mamicode.com
首页 >  
搜索关键字:斯坦福    ( 685个结果
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时14&&15
课时14 卷积神经网络详解(上) CNN处理的是一些数据块,在这之间有很多层,一系列的层将输入数据变换为输出数据,所以完成操作的中间量不仅是NN时候讲的那些向量,而是立体结构,有宽,高和深度,在整个计算过程中要保持这些三维特征。这里的深度指的是一个数据体的第三个维度。 工作流程 我们得到一些数据,作 ...
分类:其他好文   时间:2017-04-29 10:55:05    阅读次数:218
斯坦福《机器学习》Lesson5感想———1、成学习算法
在前面几课里的学习算法的思路都是给定数据集以后。确定基于此数据集的最佳如果H函数,通过学习算法确定最佳如果H的各个參数,然后通过最佳如果函数H得出新的数据集的结果。在这一课里介绍了一种新的思路,它的核心思想是直接计算各种如果的最高概率,然后拟合各个如果的最高概率參数,并利用拟合得到的如果概率,计算出 ...
分类:编程语言   时间:2017-04-28 10:24:37    阅读次数:197
霍金:AI或许能根除疾病和贫穷,但也可能摧毁人类 | GMIC 2017
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智 ...
分类:其他好文   时间:2017-04-27 23:21:09    阅读次数:374
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时12&&13
课时12 神经网络训练细节part2(上) 训练神经网络是由四步过程组成,你有一个完整的数据集图像和标签,从数据集中取出一小批样本,我们通过网络做前向传播得到损失,告诉我们目前分类效果怎么样。然后我们反向传播来得到每一个权重的梯度,这个梯度告诉我们如何去调整每一个权重,最终我们能够更好的分类图片。 ...
分类:其他好文   时间:2017-04-26 20:53:49    阅读次数:383
斯坦福《机器学习》Lesson4感想--1、Logistic回归中的牛顿方法
在上一篇中提到的Logistic回归是利用最大似然概率的思想和梯度上升算法确定θ,从而确定f(θ)。本篇将介绍还有一种求解最大似然概率?(θ)的方法,即牛顿迭代法。 在牛顿迭代法中。如果一个函数是,求解θ值使得f(θ)=0。在图1中可知, 图1 选择一个点,相应函数值为,并将相应的切线与x轴相交的点 ...
分类:其他好文   时间:2017-04-25 22:21:11    阅读次数:253
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时8&&9
课时8 反向传播与神经网络初步(上) 反向传播在运算连路中,这是一种通过链式法则来进行递推的计算过程,这个链路中的每一个中间变量都会对最终的损失函数产生影响。 链式法则通常包含两部分,局部梯度和后一层的梯度相乘 前向和反向花费的时间是基本一样的。 大的函数也可以直接视作一个整体计算梯度 当局部梯度非 ...
分类:其他好文   时间:2017-04-23 19:30:26    阅读次数:122
斯坦福CS231n—深度学习与计算机视觉----学习笔记 课时6
课时6 线性分类器损失函数与最优化(上) 多类SVM损失:这是一个两分类支持向量机的泛化 SVM损失计算了所有不正确的例子,将所有不正确的类别的评分,与正确类别的评分之差加1,将得到的数值与0作比较,取两者中的最大值。然后将所有的数值进行求和。用平均值来代替不会影响结果。 这些评分都是无标度的,因为 ...
分类:其他好文   时间:2017-04-20 21:00:33    阅读次数:193
斯坦福吴恩达教授机器学习公开课第四讲笔记——牛顿方法/广义线性模型
...
分类:其他好文   时间:2017-04-16 14:17:40    阅读次数:180
斯坦福吴恩达教授机器学习公开课第二讲笔记——有/无监督学习+线性回归
...
分类:其他好文   时间:2017-04-16 13:06:19    阅读次数:179
685条   上一页 1 ... 24 25 26 27 28 ... 69 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!