论文部分内容阅读
基于间隔理论的AdaBoost改进算法大多通过直接优化基于间隔的损失函数,以提高算法的泛化能力。通过改进AdaBoost算法的权值调整策略,增加间隔增量从正到负变化的样本权重,进而抑制训练样本间隔的负向移动,优化损失函数。通过100轮5倍交叉验证结果表明,与PAB,IPAB等算法相比,该算法的分类准确性和稳定性都有一定的提高。