论文部分内容阅读
与传统的滤波器不同,自适应滤波器(AF,adaptive filter)可以根据信号的统计特点自适应地调整滤波器的参数,实现最佳的滤波性能。因此,即使噪声和信号分布在相近的频率范围内,AF也可以基于某种误差准则完成噪声消除或信号分离。而核自适应滤波器(KAF,kernel adaptive filter)作为一类新型的自适应滤波器,可以通过核方法将原始空间的非线性问题映射到高维的再生核希尔伯特空间(RKHS,reproduce kernel Hilbert space),以线性化的方式求解,对非线性的分类和回归问题提供了一种高效的解决方式。此外,近年来提出的超限学习机(ELM,extreme learning machine)也可以通过训练单/多隐层的前馈网络实现数据的分类和回归。在ELM的理论中,隐藏层的参数可以随机初始化且在后续的训练中无需改变,训练期间以调整隐藏层和输出层间的权重参数来降低估计误差,且能保证单隐层前馈网络的万能逼近能力。目前主要从误差准则、优化方法和滤波结构三方面对自适应滤波器进行研究和创新。常用的误差准则有最小均方误差准则(MMSE,minimum mean square error)、绝对值误差准则(MAE,mean absolute error)和最大相关熵准则(MCC,maximum correntropy criterion)等。其中MMSE简单且应用广泛,在高斯噪声环境下可实现最优估计;MAE和MCC具有一定的抵抗非高斯噪声的能力。优化方法包括梯度下降法、动量优化法、自适应矩估计法(Adam,adaptive moment estimation)等,可以根据应用的环境采用不同的优化方法。结构上主要分为前馈和反馈结构。反馈结构可以利用输出信息优化滤波参数,从而提高滤波性能。对于KAF的研究,由于它的网络结构随着迭代次数不断增长,会增加计算和存储负担,所以还需采用稀疏化方法缓解计算和存储负担。常用的稀疏化方法主要分为:设定阈值对输入数据的适当丢弃(即样本稀疏化)和固定滤波网络结构的尺寸(即结构稀疏化)。基于上述研究方向,本文的工作主要集中于提高算法稳健性、加快收敛速率和稀疏化网络结构三方面的研究。(1)从误差准则方面提高算法稳健性。超限学习机在线学习算法(OS-ELM,online sequential extreme learning machine)在高斯噪声环境下的收敛速度和滤波精度表现良好,但面对非高斯噪声环境其稳健性无法保证。MCC包含误差的高阶统计信息,能够消除异常值对滤波性能的影响。将MCC应用于OS-ELM,并结合定点迭代方法推导出了基于最大相关熵准则的超限学习机在线学习算法(OS-ELM-MCC,online sequential extreme learning machine based on maximum correntropy criterion),此算法面对α噪声等非高斯噪声展现了更稳健的滤波性能。此外进一步提出了约束型最大相关熵的超限学习机在线学习算法(COSELM-MCC,constraint online sequential extreme learning machine based on maximum correntropy criterion),在保证算法稳健性的同时比OS-ELM-MCC的泛化性能更好。(2)从优化方法和误差准则两方面改进算法。基于这两方面的考虑提出了基于自适应矩估计的最大相关熵算法(AdamMCC,adaptive moment estimation algorithm based on maximum correntropy criterion)。采用Adam方法作为滤波器参数的更新方式,通过对梯度的一阶矩和二阶矩的自适应估计实现了对每个权重分量的动态调整,加快收敛速率;进而结合MCC,保证了算法可以抗击非高斯噪声的干扰。(3)从稀疏化的角度优化算法。样本稀疏化虽然可以降低核自适应滤波器的网络结构尺寸,但仍存在网络尺寸不确定的问题,需要利用额外的计算达到固定网络尺寸的目的;采用结构稀疏化方法,本文提出用Nystr?m方法选取样本数据的子集,组成固定大小的列向量来近似由全部样本数据构成的核向量。将Nystr?m方法应用在最小均方算法上提出了Nystr?m近似的核最小均方算法(NysKLMS,kernel least mean square algorithm based on the Nystr?m method)。