Softplus函数相关论文
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;......
针对非高斯环境下一般自适应滤波算法性能严重下降问题,本文提出了一种基于Softplus函数的核分式低次幂自适应滤波算法(kernel fra......
为提高Softplus函数在神经网络中的性能,针对Softplus函数的缺点提出了一种基于改进Softplus激活函数的卷积神经网络模型。根据“......
为了提高预测模型的精度,提出一种基于Softplus激活函数的双隐含层BP神经网络的预测方法,提高了模型的非线性学习和泛化能力及预测......