码迷,mamicode.com
首页 > 其他好文 > 详细

00.Andrew机器学习week1

时间:2018-08-03 01:17:15      阅读:157      评论:0      收藏:0      [点我收藏+]

标签:不能   文章   reg   ati   最优   调整   put   super   训练   

## Introduction

机器学习的定义

  • give computers the ability to learn without being explicitly programmed.
    T:明白任务是什么,比如将邮件分为垃圾邮件(1)和正常邮件(0)
    E:有足够的经验来供模型学习
    P:有一定判断来度量学习情况的好坏

课程内容

机器学习算法

  • 监督学习(有label)
  1. 分类:label是离散的(垃圾邮件分类)
  2. 回归:label连续(房价预测)
  • 非监督
  1. 聚类
  2. 降维
  3. 异常检测

其他

强化学习、推荐系统

## Surpervised Learning

定义

利用一组已知类别的样本来调整分类器的参数。也被分为regression和classificaiton问题

举例

  • 对房价进行预测(连续)
    对于连续数据的又称 regression问题

  • 肿瘤预测(离散)
    对于离散数据又称为classification问题。

支持向量机:处理无限长特征

## unsupervised learning

定义

没有标签,只有数据集,判断出不同的聚类

举例

  • 聚类(clustering):算法自动将相同元素分为紧密关系的子集或簇
  1. 网站中将类型相同文章进行分类

  2. 识别不同人,按照基因相同部分进行分类

  • 非聚类
    鸡尾酒问题

    给出混合信号,分理处每个人的独立信号。用octave工具可轻松处理。

  • 工具:octave matlab

## 线性回归算法

监督学习算法的模型

给定一个训练数据集,(x(i),y(i)) 。X表示输入,Y表示输出。得到一个从X->Y的映射函数h.

Hypothesis function

  • 选择参数
  • Cost Function
    评价hypothesis function通过使用代价函数,找到使代价函数最小值的参数。
    (平方差代价函数)

gradient descent algorithm

(梯度下降算法)

  • 定义:不断调整找到使得任何代价函数取值最小的参数θ0,θ1.(不止是线性回归代价函数)

  • 过程:
    同时调整θ0,θ1,直到局部最优解处停止,learning rate不能太大太小。

gradient descent for linear regression

不断调整参数使得假设函数越来越精确。

Matrix and vectors

Matrix

  • def:rectangular array of numbers

vector

  • def:an n*1 matrix
    默认1-index

00.Andrew机器学习week1

标签:不能   文章   reg   ati   最优   调整   put   super   训练   

原文地址:https://www.cnblogs.com/lizyang/p/9410580.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!