码迷,mamicode.com
首页 >  
搜索关键字:类内距离    ( 8个结果
A Discriminative Feature Learning Approach for Deep Face Recognition
url: https://kpzhang93.github.io/papers/eccv2016.pdfyear: ECCV2016## abstract对于人脸识别任务来说, 网络学习到的特征具有判别性是一件很重要的事情. 增加类间距离, 减小类内距离在人脸识别任务中很重要.那么, 该如何增加类间... ...
分类:移动开发   时间:2019-04-21 20:02:34    阅读次数:544
Kmeans
关于聚类的性能评价标准 参考博客 可以为外部指标和内部指标,其中外部指标是指 聚类结果与某个 “参考模型" 进行表示, 内部指标直接考察聚类结果不参考模型 外部指标: 1、Jaccard系数 系属于相同类占总类数的比例, 越大说明效果越好。 内部指标: 1、DB指数 DB计算 任意两类别的类内距离平 ...
分类:其他好文   时间:2018-06-12 14:07:16    阅读次数:168
Fisher准则一维聚类
在做FAQ系统时,用户输入一个查询之后,返回若干个打好分数的文档。对于这些文档,有些是应该输出的,有些是不应该输出的。那么应该在什么地方截断呢? 这个问题其实是一个聚类问题,在一维空间中把若干个点聚成两类。 聚类就有标准:类内距离尽量小、类间距离尽量大。 由此想到Fisher准则。 那么给定一个浮点 ...
分类:其他好文   时间:2018-01-24 22:28:41    阅读次数:358
2016-5-5未命名文件
2016-5-5未命名文件新建模板小书匠1. 论文摘要提出了一种新的discriminativate deep metric learning(DDML)方法,用于自然环境下的 face verification。与现有的致力于学习一个马氏距离度量,从而最大化类间距离最小化类内距离的方法不同,DDM... ...
分类:其他好文   时间:2016-05-05 12:59:39    阅读次数:131
线性判别分析(LDA)算法总结
LDA也称Fisher线性判别法,它是一种非迭代的分类算法。算法的主要思想将特征空间中的样本投影到该空间的一条直线上以实现从高维到一维的数据压缩。显然这样的投影有很多方向,而LDA算法就是寻找一个最佳投影方向来使样本的类内距离最小而类间距离最大。投影方向:1、投影后不同..
分类:编程语言   时间:2015-09-29 01:25:06    阅读次数:289
特征选择(三)-K-L变换
上一讲说到,各个特征(各个分量)对分类来说,其重要性当然是不同的。舍去不重要的分量,这就是降维。聚类变换觉得:重要的分量就是能让变换后类内距离小的分量。类内距离小,意味着抱团抱得紧。可是,抱团抱得紧,真的就一定easy分类么?如图1所看到的,依据聚类变换的原则,我们要留下方差小的分量,把方差大(波动...
分类:其他好文   时间:2015-06-03 19:09:49    阅读次数:173
[模式识别].(希腊)西奥多里蒂斯<第四版>笔记5之__特征选取
1,引言 有关模式识别的一个主要问题是维数灾难。我们将在第7章看到维数很容易变得很大。     降低维数的必要性有几方面的原因。计算复杂度是一个方面。另一个有关分类器的泛化性能。     因此,本章的主要任务是:在尽可能保留特征的分类判别信息前提下,来选择重要的和维数少的特征量。这个过程被称作特征选择或者特征降维。     定量描述来讲,选择的特征应该使得类内距离减小,类间距离增大。...
分类:其他好文   时间:2014-07-20 10:14:09    阅读次数:207
特征选择(三)-K-L变换
上一讲说到,各个特征(各个分量)对分类来说,其重要性当然是不同的。 舍去不重要的分量,这就是降维。   聚类变换认为:重要的分量就是能让变换后类内距离小的分量。 类内距离小,意味着抱团抱得紧。   但是,抱团抱得紧,真的就一定容易分类么? 如图1所示,根据聚类变换的原则,我们要留下方差小的分量,把方差大(波动大)的分量丢掉,所以两个椭圆都要向y轴投影,这样悲剧了,两个重叠在一起,根本...
分类:其他好文   时间:2014-05-11 20:17:34    阅读次数:313
8条  
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!