搜索筛选:
搜索耗时3.0378秒,为你在为你在102,285,761篇论文里面共找到 6 篇相符的论文内容
类      型:
[期刊论文] 作者:姜纪远,夏良,章显,陶卿, 来源:计算机研究与发展 年份:2014
随机梯度下降(stochastic gradient descent,SGD)是一种求解大规模优化问题的简单高效方法,近期的研究表明,在求解强凸优化问题时其收敛速率可通过α-suffix平均技巧得到有效的...
[期刊论文] 作者:陶卿,高乾坤,姜纪远,储德军,, 来源:软件学报 年份:2013
机器学习正面临着数据规模日益扩大的严峻挑战,如何处理大规模甚至超大规模数据问题,是当前统计学习亟需解决的关键性科学问题.大规模机器学习问题的训练样本集合往往具有冗余和......
[期刊论文] 作者:姜纪远,陶卿,高乾坤,储德军,, 来源:软件学报 年份:2014
AUC被广泛作为衡量不平衡数据分类性能的评价标准.与二分类问题不同,AUC问题的损失函数由来自两个不同类别的样本对组成.如何提高其实际收敛速度,是一个值得研究的问题.目前...
[期刊论文] 作者:邵言剑,陶卿,姜纪远,周柏,, 来源:软件学报 年份:2014
随机梯度下降(SGD)算法是处理大规模数据的有效方法之一。黑箱方法SGD在强凸条件下能达到最优的O(1/T)收敛速率,但对于求解L1+L2正则化学习问题的结构优化算法,如COMID(composite obj......
[期刊论文] 作者:姜纪远,陶卿,邵言剑,汪群山,, 来源:电子学报 年份:2015
COMID(Composite Objective Mlrror Descent)是一种能够保证L1正则化结构的在线算法,其随机收敛速率可由在线算法的regret界直接得到,但其最终解是T次迭代平均的形式,稀疏性很差.瞬...
[期刊论文] 作者:储德军,陶安,高乾坤,姜纪远,陶卿,, 来源:模式识别与人工智能 年份:2014
割平面方法可高效求解线性支持向量机问题,其主要思路是通过不断添加割平面并利用精确线性搜索实现算法的加速和优化。针对其中的非光滑线性搜索问题,文中提出一种基于非精确步......
相关搜索: