论文部分内容阅读
近年来,支持向量机(SVM)的理论已经取得重大进展,其算法策略以及实际应用都得到很大发展。SVM的推广误差一直是SVM分类算法研究中的热点问题,本文使用Lipschitz损失函数和分类器所在函数类的Rademacher复杂度得出L1-SVM与v-SVM分类器推广误差的上界。另外,本文还研究了稀疏支持向量机的风险误差,以及标准支持向量机的支持向量个数的渐近性界。全文共分五部分:
第一部分概述了学习问题的基本框架,SVM算法的主要思想和研究背景。
第二部分介绍了分类器的推广误差的传统上界,并证明了L1-SVM和v-SVM推广误差新的上界。这个界由Lipschitz类型的损失函数的经验误差和分类器所在函数类的Rademacher复杂度构成。
第三部分引入了稀疏SVM,得到该向量机的风险误差,并与经典的SVM的误差进行了比较。
第四部分介绍了SVM的稀疏性和标准SVM的支持向量的渐近下界和上界,并得到有关v-SVM支持向量的结论。
第五部分总结了前面所得的结果并对将来的研究工作进行了展望。