码迷,mamicode.com
首页 > 其他好文 > 详细

机器学习中的几个概念的关系

时间:2018-08-16 23:00:48      阅读:251      评论:0      收藏:0      [点我收藏+]

标签:神经网络   朴素贝叶斯   learn   隐马尔可夫   分解   log   reduce   graph   成功   

目前, 机器学习主要由以下三条主线进行发展:

graph LR subgraph 三代神经网络 A[1 线性分类器] ==> B[2 非线性分类器] B ==SVM==> C[3 深度学习] A1[感知器网络] --> B A1 -.-> A2 A2[Logistic 网络] --> B A2 -.->P P[BP 网络] --> B C1[SOM 网络] --> B D1[玻耳兹曼机网络] --> B end subgraph 贝叶斯理论 D[朴素贝叶斯] --> E[贝叶斯网] E --> F[隐马尔可夫模型: HMM] end subgraph 矩阵论 H[矩阵降维] --> I[奇异值分解: SVD] I --> J[PCA 算法] end

DeepLearning 算法 (DL, 深度学习: 2010 年前后由多伦多大学的 Geoffrey Hinton 提出) 与衍生的卷积神经网络 (CNN, 有监督) 和深度置信网络 (DNN, 无监督) 在计算机视觉、语言识别和部分自然语言处理领域获得巨大的成功.

graph LR subgraph 大数据的三大基石 CNN -.-> A[DL] A === DNN DNN === id[Map Reduce] end

机器学习中的几个概念的关系

标签:神经网络   朴素贝叶斯   learn   隐马尔可夫   分解   log   reduce   graph   成功   

原文地址:https://www.cnblogs.com/q735613050/p/9490591.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!