楼主: sbslizhen

[已解决] LDA人脸识别matlab程序代码

  [复制链接]

新手

5 麦片

财富积分


050


0

主题

24

帖子

0

最佳答案
  • 关注者: 1
发表于 2012-10-12 17:18:33 | 显示全部楼层
回复此楼 已获打赏: 0 积分

举报

新手

5 麦片

财富积分


050


3

主题

28

帖子

0

最佳答案
发表于 2012-10-14 22:56:25 | 显示全部楼层
感谢LZ的共享了
回复此楼 已获打赏: 0 积分

举报

新手

5 麦片

财富积分


050


0

主题

24

帖子

0

最佳答案
  • 关注者: 1
发表于 2012-10-15 15:40:08 | 显示全部楼层
yinhefeng 发表于 2012-10-12 17:03
特征并不是越多越好,只要具有代表性和可区分性,能很好的把不同的样本分开就行。 ...

您好,我又来了:)
在您的fisheface程序中,PCA降维的K-L变换是采用自相关矩阵计算的。我在模式识别教材中看到除了自相关矩阵之外还有多类类内散布矩阵、类间散布矩阵和总体散布矩阵三种。这四种方法有什么特点吗?
回复此楼 已获打赏: 0 积分

举报

论坛优秀回答者

退役版主

432 麦片

财富积分



8

主题

2602

帖子

49

最佳答案
QQ
  • 关注者: 461
发表于 2012-10-15 16:39:29 | 显示全部楼层
Menow 发表于 2012-10-15 15:40
您好,我又来了
在您的fisheface程序中,PCA降维的K-L变换是采用自相关矩阵计算的。我在模式识别教材中 ...

    由于PCA的目的是提取一组最能表达样本特征的主分量,所以它求解自相关矩阵(协方差矩阵)的特征值和特征向量,在数学中,方差衡量样本和均值的偏离程度。
    类内散布矩阵Sw是衡量同类样本聚集程度的量,Sw越小,同类样本越集中;类间散布矩阵Sb是衡量不同类样本分散程度的量,Sw越大,不同类样本越分散,而LDA的目的是分类时尽量使同类样本尽可能紧凑。不同类样本尽可能分开,所以它使用Fisher准则作为目标函数,当然后来有很多新的改进的Fisher准则,包括总体散布矩阵St,St=Sb+Sw(具体证明可以参考相关文献)。
    不同的目的有不同的目标函数,而不同的目标函数需要使用不同的样本矩阵,所以结合你的目标函数选择合适的样本矩阵。
回复此楼 已获打赏: 0 积分

举报

新手

5 麦片

财富积分


050


0

主题

24

帖子

0

最佳答案
  • 关注者: 1
发表于 2012-10-15 16:46:11 | 显示全部楼层
yinhefeng 发表于 2012-10-15 16:39
由于PCA的目的是提取一组最能表达样本特征的主分量,所以它求解自相关矩阵(协方差矩阵)的特征值和 ...

谢谢解疑
回复此楼 已获打赏: 0 积分

举报

新手

5 麦片

财富积分


050


0

主题

24

帖子

0

最佳答案
  • 关注者: 1
发表于 2012-10-18 14:31:55 | 显示全部楼层
yinhefeng 发表于 2012-10-15 16:39
由于PCA的目的是提取一组最能表达样本特征的主分量,所以它求解自相关矩阵(协方差矩阵)的特征值和 ...

您好!
在LDA人脸识别算法中,对于输入的一幅人脸进行提取的特征,它的计算与库中人脸图像有关。也就是说提取出的待识别人脸的特征并不是这幅人脸的真正特征,而是与库中的一种比对信息。是这样吗?
回复此楼 已获打赏: 0 积分

举报

论坛优秀回答者

退役版主

432 麦片

财富积分



8

主题

2602

帖子

49

最佳答案
QQ
  • 关注者: 461
发表于 2012-10-18 14:58:51 | 显示全部楼层
Menow 发表于 2012-10-18 14:31
您好!
在LDA人脸识别算法中,对于输入的一幅人脸进行提取的特征,它的计算与库中人脸图像有关。也就是说 ...

首先你要明白降维的目的,就是把高维图像空间投影到低维的人脸空间。而子空间方法的基础就是假设同类的样本位于一个低维的子空间上,所以先利用训练样本建立子空间,然后把测试样本投影到这个子空间上,投影后得到的是测试样本的特征信息。最后在低维子空间上利用分类方法对测试样本进行分类。
回复此楼 已获打赏: 0 积分

举报

新手

5 麦片

财富积分


050


0

主题

24

帖子

0

最佳答案
  • 关注者: 1
发表于 2012-10-19 14:14:07 | 显示全部楼层
yinhefeng 发表于 2012-10-18 14:58
首先你要明白降维的目的,就是把高维图像空间投影到低维的人脸空间。而子空间方法的基础就是假设同类的样 ...

PCA和LDA的方法对于样本库固定的情况应该有实用性,但对于要在库里在加入新类人脸的话,每加入一类人脸都要重新计算,不能在加入样本之后立即进行新的人脸识别活动。
回复此楼 已获打赏: 0 积分

举报

论坛优秀回答者

退役版主

432 麦片

财富积分



8

主题

2602

帖子

49

最佳答案
QQ
  • 关注者: 461
发表于 2012-10-19 14:41:55 | 显示全部楼层
Menow 发表于 2012-10-19 14:14
PCA和LDA的方法对于样本库固定的情况应该有实用性,但对于要在库里在加入新类人脸的话,每加入一类人脸都 ...

是的,这个特点就是PCA、LDA等子空间算法的局限性,它们需要事先计算一个投影空间。和PCA、LDA不同,随机投影算法可以不用事先计算投影矩阵,不依赖于具体的样本。
回复此楼 已获打赏: 0 积分

举报

新手

5 麦片

财富积分


050


0

主题

24

帖子

0

最佳答案
  • 关注者: 1
发表于 2012-11-16 09:29:59 | 显示全部楼层
yinhefeng 发表于 2012-10-19 14:41
是的,这个特点就是PCA、LDA等子空间算法的局限性,它们需要事先计算一个投影空间。和PCA、LDA不同,随机 ...

您好,谢谢您之前的解答。
在人脸识别中,如果采用最近邻或其他类似的方法来识别时。如果输入一个库中没有的人脸,它也会‘识别’出他是谁。可以采用什么方法来识别这个人不在库中。
回复此楼 已获打赏: 0 积分

举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

快速回复 返回顶部 返回列表