论文部分内容阅读
kNN分类算法虽然已经广泛地应用于模式识别的各个领域,但是如何对kNN进行改进仍然是一个研究热点。在各种改进方法中,大间隔近邻分类方法取得了较好的改进效果,它的基本原理是通过优化目标函数,在测试样本的邻域范围内,使得同类点的距离变小,不同类点用一个尽可能大的间隔隔开。这种方法虽然比原始的kNN方法取得了一定的改进,但是该算法仍然有一些缺点,例如算法对所有测试样本选择的邻域大小(即k值)都是一样的。针对这一缺点,提出了将自适应选择k值引入到目标函数的设定中的自适应大间隔近邻分类算法(ALMNN)。该算法的主要步骤是:首先为每个测试样本计算一个k值,然后在每一类选取k个目标近邻,计算属于每一类的损失函数值,选择拥有最小函数值的类作为测试样本的类别。给出了ALMNN方法的算法描述,并且通过多个数据集的实验表明,提出的算法与传统的kNN、LMNN比较,可以在一定程度上提高分类的性能,减少了k值的选择对分类性能的影响,训练集的随机抽取对算法的分类性能影响较小。