浅层神经网络 1.激活函数 在神经网络中,激活函数有很多种,常用的有sigmoid()函数,tanh()函数,ReLu函数(修正单元函数),泄露ReLu(泄露修正单元函数)。它们的图形如下: sigmoid()激活函数,范围是y属于{0, 1},所以0<= y <=1。但是sigmoid函数平均收敛 ...
分类:
其他好文 时间:
2018-02-20 21:40:57
阅读次数:
209
浅层神经网络 初步了解了神经网络是如何构成的,输入+隐藏层+输出层。一般从输入层计算为层0,在真正计算神经网络的层数时不算输入层。隐藏层实际就是一些算法封装成的黑盒子。在对神经网络训练的时候,就是对神经网络的神经元求出最合适的参数。 从这图也也看出,每层神经网络的单个神经元就是一些算法计算。 并且是 ...
分类:
其他好文 时间:
2018-02-20 00:07:19
阅读次数:
223
神经网络基础 1.图计算 计算时有两种方法:正向传播和反向传播。正向传播是从底层到顶层的计算过程,逐步推出所求公式。反向传播是从顶层到底层,从已知的式子求出因变量的影响关系。 在这里用到的反向传播算法就是为了通过似然函数(成本函数)来确定要计算的参数。 在这里,logistic回归应用了反向传播,主 ...
分类:
其他好文 时间:
2018-02-18 21:56:53
阅读次数:
208
Tensorflow实现学习率衰减 觉得有用的话,欢迎一起讨论相互学习~ "Follow Me" 参考文献 "Deeplearning AI Andrew Ng" "Tensorflow1.2 API" 学习率衰减(learning rate decay) 加快学习算法的一个办法就是随时间慢慢减少学 ...
分类:
其他好文 时间:
2018-02-18 12:56:05
阅读次数:
2119
深度学习概论 1.什么是神经网络? 2.用神经网络来监督学习 3.为什么神经网络会火起来? 1.什么是神经网络? 深度学习指的是训练神经网络。通俗的话,就是通过对数据的分析与计算发现自变量与因变量的映射关系(神经网络模型),这个映射关系可以是单层(一个神经元),也可以是网络(多个神经元),此过程可称 ...
分类:
其他好文 时间:
2018-02-15 16:35:20
阅读次数:
196
作者:Leon链接:https://www.zhihu.com/question/20691338/answer/102249162来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 我看到有人在问,Andrew Ng的视频,还有代码这些的资料。再次整理一下: 1、机器学 ...
分类:
其他好文 时间:
2018-02-06 20:20:41
阅读次数:
165
①假设函数(hypothesis function) 在给定一些样本数据(training set)后,采用某种学习算法(learning algorithm)对样本数据进行训练,得到了一个模型或者说是假设函数。 当需要预测新数据的结果时,将新数据作为假设函数的输入,假设函数计算后得到结果,这个结果 ...
分类:
系统相关 时间:
2017-11-27 23:31:41
阅读次数:
169
K-means也是聚类算法中最简单的一种了,但是里面包含的思想却是不一般。最早我使用并实现这个算法是在学习韩爷爷那本数据挖掘的书中,那本书比较注重应用。看了Andrew Ng的这个讲义后才有些明白K-means后面包含的EM思想。 聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM等都是有类别标签y ...
分类:
编程语言 时间:
2017-11-03 15:16:01
阅读次数:
250
Andrew Ng在coursera上的经典课程Machine Learning第一次编程作业的详细回顾 ...
分类:
其他好文 时间:
2017-11-01 12:11:24
阅读次数:
262
写在前面的话:人工智能界有一种说法,认为机器学习是人工智能领域中最能够体现智能的一个分支,从历史来看,机器学习似乎也是人工智能中发展最为迅速的分支之一。Andrew Ng曾说机器学习将是未来人工智能的“电力”,可见机器学习的基础性和重要性。笔者本科在南京大学读的EE,出于对CS和人工智能的兴趣,上个 ...
分类:
其他好文 时间:
2017-09-30 10:01:59
阅读次数:
214