论文部分内容阅读
为了克服用重复剪辑近邻法筛选训练样本集产生样本被误剔除进而增大决策树的判决风险和误判概率的问题,提出一种新的方法-引入拒绝阀值的重复剪辑近邻法,并从理论上分析了它降低判决风险和误判概率的原理。通过实验比较这两种方法发现,引入拒绝阀值的重复剪辑近邻法在降低判决风险和误判概率上要优于重复剪辑近邻法;而在决策树的规模和分类错误率上,重复剪辑近邻法的精度要优于引入拒绝阀值的重复剪辑近邻法。