码迷,mamicode.com
首页 > 其他好文 > 详细

【机器学习1】

时间:2020-06-17 10:44:59      阅读:69      评论:0      收藏:0      [点我收藏+]

标签:严格   expec   mit   str   最优化问题   分类   特征选择   复杂   空间   

非显著式编程的做法

 

收益函数

1998 Tom MitShell 

第一本成熟的教科书:MACHINE LEARNING

典型的最优化问题

 

为数据打标签(独特行业)

  • 监督学习
  • 强化学习(与环境互动)

非监督学习

需要假设:同一类的训练数据在空间中距离更近->样本的空间信息->设计算法将其分成两类

 

非监督学习算法包括:

  1. 聚类
  2. EM算法(Expectation-Maximization algorithm)
  3. 主成分分析

半监督学习

 

少量的标注数据 大量未标注数据

 

监督学习(界限模糊)

  1. 分类(离散)
  2. 回归(连续)

主要是解决分类问题


 

1.提取特征

2.特征选择

特征空间

只要画出了区分的曲线,就算完成了机器学习

 

维度

标准

 

没有免费午餐定理

1995 D.H.Wolpert

 

在设计机器学习算法的时候有一个假设:

在特征空间上距离接近的样本,他们属于同一个类别的概率会更高。

机器学习的本质:

通过有限的已知数据,能在复杂的高维特征空间中预测未知的样本


 

没有放之四海而皆准的算法


支持向量机(线性可分定义)

Vladimir Vapnik

用数学严格定义线性可分

用向量形式定义

 

【机器学习1】

标签:严格   expec   mit   str   最优化问题   分类   特征选择   复杂   空间   

原文地址:https://www.cnblogs.com/wfish/p/13150727.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!