论文部分内容阅读
随机梯度下降算法(SGD)在每次迭代过程中只对一个训练样例进行处理,它能够快速得到线性可分SVM问题的解。通过引入核函数,可以对非线性可分SVM问题进行求解。非线性SGD算法中,W是用之前所选择的所有训练样例来表示的,即用来表示W的训练样例的个数会随着迭代次数的增加而增加。笔者提出一个新的方法,将最终训练出的W用较少的训练样例来表示,从而加快了预测超平面的预测速度。