论文部分内容阅读
本文从成员分类器的生成方法和组合方法两个方面对组合分类在大规模学习问题中的应用进行了分析和研究。选取k-近邻分类器、Fisher分类器、多层感知器、径向基网络、支持向量机(SupportVectorMachines,SVMs)等作为成员分类器。为了减轻单个分类器的训练负荷,提出了基于学习向量量化网络的样本选择方法,并将其应用到k-近邻分类器的原型确定之中,从而在不降低分类性能的情况上,提高了其决策速度。建立了一种基于Gaussian核的样本中心选取方法,并由此得到基于k-均值聚类的初始化样本中心算法,有效解决了SVMs学习过程中的样本不平衡问题。提出了一种核参数微调方法,有效地减少了支持向量的个数。对解决手写数字识别等诸如之类的大规模学习问题,为了提升成员分类器的多样性,采用不同的特征选取方法。在分析了传统的大多数投票组合策略在多类学习问题中的局限性之后,提出了基于距离的加权大多数投票规则。实验结果表明,本方法能显著提高组合分类器的分类性能。最后,提出了一种组合函数逼近模型,该模型不仅能确定样本的类别,而且能同时确定样本的“位置”。