码迷,mamicode.com
首页 > 编程语言 > 详细

机器学习: 特征脸算法 EigenFaces

时间:2016-05-12 11:56:17      阅读:301      评论:0      收藏:0      [点我收藏+]

标签:

人脸识别是机器学习和机器视觉领域非常重要的一个研究方向,而特征脸算法是人脸识别里非常经典的一个算法,EigenFaces 是基于PCA (principal component analysis) 即主分量分析的。

一张尺寸为 w×h 的人脸图像 Ii可以看成是一个 D×1 的列向量, xRD,其中 D=w×h, 那么,给定一个训练集 S, 含有 m 张人脸图像, 即: S={xi},i=1,2,...m, 简单来说,我们希望通过一些线性映射,将原始向量 x 从高维空间 RD 变换到一个低维空间 RKK?D.

利用PCA 分析:
1: 先求训练集 S 的均值向量 xˉ=1mmi=1xi

2: 向量去均值:Φi=xi?xˉ

3: 求协方差矩阵 C=1mmi=1ΦiΦTi, 如果我们定义 A=[Φ1,Φ2,...,Φm], ARD×m, 那么 C=AAT

4: 特征值分解: Cui=γiui

我们知道协方差矩阵是一个高维矩阵 CRD×D. 如果直接进行特征分解,无疑是非常消耗资源也很费时的。特征脸算法做了一个非常巧妙的变换,我们先来看 ATA 的特征值分解,因为 ATARm×m,比起 C 来说,维度要小得多。我们可以得到:

ATAvi=λivi 进一步可以得到:

AATAvi=λiAvi 即:

CAvi=λiAvi 所以我们看到:

Cui=λiuiui=Avi

换句话说,AATATA 有相同的特征值,而特征向量满足如下关系:

ui=Avi

严格说来,AATRD×D, 最多可以有 D 个 特征值与特征向量。

ATARm×m, 最多可以有 m 个 特征值与特征向量。

ATA 中的 m 个 特征值与特征向量 对应 AAT 中 前 m 个最大的特征值以及特征值相对应的特征向量。

所以通过这种变换, 可以非常快速地求得 AAT 的特征向量 ui=Avi

5: 将特征值从大到小排序,截取前面 K 个特征值及对应的特征向量。我们可以用特征向量的线性组合来表示原来的去均值向量,即:

xi?xˉ=Φi=Kj=1wjuj

wj=ΦTiuj

如果定义, Ω=[w1,w2,...,wK], U=[u1,u2,...,uK], 那么可以得到

Ω=ΦTiU, 我们看到,通过引入 Eigenfaces, 我们将高维向量 Φi 映射到低维向量 Ω

做人脸识别的时候,我们可以先将训练集中的每个subject的人脸图像映射到低维空间Ω1,Ω2,...Ωq, q 表示subject 的个数。给定一个测试样本 x,先做去均值,Φ=x?xˉ,然后再映射到低维空间,得到低维向量 Ω,我们要求解如下的目标函数:

argminlΩ?Ωl

进而确定测试样本属于哪个subject。

机器学习: 特征脸算法 EigenFaces

标签:

原文地址:http://blog.csdn.net/matrix_space/article/details/51364302

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!