论文部分内容阅读
[摘 要]通过对工业设备的故障诊断,能够正确判断各部件工作状态,快速确定维修方案,保证安全。提出了基于深度自编码网络的故障融合诊断模型。该模型通过分析大量性能参数,首先利用深度学习算法提取出性能参数中的隐藏特征,得出故障分类类别;从而得出更准确的诊断结果。该模型在故障诊断方面,具有较高的准确性和抗干扰能力。
[关键词]深度学习;故障诊断;深度自编码网络
中图分类号:TM41 文献标识码:A 文章编号:1009-914X(2019)03-0121-01
1 引言
设备的及时维修是建立在精准的故障诊断的基础上,根据故障诊断的结果能够判断设备运行状态,以便于工业生产中及时对故障设备进行维修。随着硬件技术的高速发展,使得实时提取设备状态数据成为了可能。研究基于实时数据监控的故障诊断方法,对保障工业设备有效高速运行具有重要意义。近年来,深度学习在故障诊断方面得到了大量的学者关注,取得了不少的研究成果。基于上述问题,本文在结合深度学习方法和自编码网络的基础上,将深度自编码网络用于故障融合诊断,把性能参数和故障类型样本输入到自编码网络模型中,提取出样本特征,从而输出故障分类数据,然后把输出数据带入到决策融合算法模型中进行决策融合,得出故障融合诊断结果。该方法能够在结合两种模型优势的基础上,简化结构,不仅有效提高故障诊断准确度,而且能够得出更加直观的故障诊断结果,同时有一定抗干扰性。
2 深度自编码网络原理
深度自编码网络也称栈式自编码网络,它是由多层自编码器AE(Auto-Encoder)堆叠而成的神经网络,结构上与传统多层神经网络没有区别,训练时采用逐层训练的方法,即将前一层的输出作为下一层的输入依次训练,有效解决了传统神经网络训练方法不适用于多层网络训练的问题。
网络预训练是深度自编码网络的主要步骤,其过程实质上就是初始化网络参数的过程,采用逐层无监督特征优化算法,需要初始化的网络参数是层与层之间的连接权值及各层神经元的偏置值。以1层AE为例,1个基本的AE可视为1个3层的神经网络结构,即输入层、隐含层和输出层,其中输出层与输入层规模相同。从输入层到隐含层是编码过程,从隐含层到输出层是解码过程。设f和g分别表示编码和解码函数,则2个过程可分别表示为式(1)和式(2):
其中, 和 通常取为sigmoid函数;W为输入层与隐含层之间的权值矩阵, 为隐含层与输出层之间的权值矩阵,通常取为 ;p和q分别为隐含层和输出层上的偏置向量。为了下文表示方便,将AE的参数记为 ,即 。
假设训练样本集 ,预训练AE的过程实质上就是利用S对参数 进行训练的过程。为此,首先需定义1个训练目标,即解码后的y应与输入x尽可能地接近,这种接近程度可以通过重构误差函数 来刻画, 定义为:
基于重构误差函数,针对训练数据集S,损失函数如式(4)所示。然后利用梯度下降法对损失函数进行极小化,就可以得到该层AE参数 。
一层AE训练完成之后,将其隐含层单元的输出向量作为下一层的输入,对下一层AE进行训练,依次迭代多层,直至最终完成整个深度自编码网络的训练,具体网络结构图如下。
3故障诊断模型
基于深度自編码网络的故障融合模型结合了自编码网络和决策融合模型,先通过自编码网络模型提取故障样本的性能参数特征,再对故障分类结果进行决策融合。具体模型运算步骤如图2 所示:
1)采集数据,构建训练样本矩阵、标签矩阵和测试矩阵。样本矩阵为大小为m*n,其中m为故障数,n是状态参数个数。分别设置合理的网络层数和节点个数,网络初始状态参数设为极小值;
2)把训练样本输入深度自编码网络中,得出权值w和其余相关训练参数;
3)把训练得到的参数输入到 BP 神经网络中进行反向优化训练,得到最终的网络模型,得到对应不同故障类别的特征码;
4)将特征编码输入测试样本得出故障类别;
5)重复步骤4进行多次实验,把得出的故障分类置信度结果输入到决策融合模型中;
6)根据决策融合结果得出故障融合诊断结果;
7)分析故障融合诊断结果,并统计正确率。
4结论
深度学习在语音识别、游戏和机器视觉领域的成功应用,带给了故障诊断前所未有的启发。故障诊断领域由深度强化学习带来质的飞跃。在未来的时间里,深度学习的思想和方法将会越来越多地被人们应用在故障诊断领域。本文将深度自编码网络与决策模型相融合,应用到故障诊断问题中,进一步扩展了故障诊断的思路,有效的改善了故障诊断的精度。
参考文献
[1]朱德恒,严璋,谈克雄,等.电气设备状态监测与故障诊断技术[M].北京:中国电力出版社,2009:10-25.
[2]遇炳杰,朱永利.加权极限学习机在变压器故障诊断中的应用[J].计算机工程与设计,2013,34(12):4340-4344.
[3]周建华,胡敏强,周鹗.基于共轭梯度方向的CP-BP算法在变压器油中溶解气体诊断法中的应用[J].中国电机工程学报,1999,19(3):41-45.
[4]HINTON G E,SALAKHUTDINOV R R. Reducing the dimensionality of data with neural networks [J]. Science,2006,313(5786):504-507.
[关键词]深度学习;故障诊断;深度自编码网络
中图分类号:TM41 文献标识码:A 文章编号:1009-914X(2019)03-0121-01
1 引言
设备的及时维修是建立在精准的故障诊断的基础上,根据故障诊断的结果能够判断设备运行状态,以便于工业生产中及时对故障设备进行维修。随着硬件技术的高速发展,使得实时提取设备状态数据成为了可能。研究基于实时数据监控的故障诊断方法,对保障工业设备有效高速运行具有重要意义。近年来,深度学习在故障诊断方面得到了大量的学者关注,取得了不少的研究成果。基于上述问题,本文在结合深度学习方法和自编码网络的基础上,将深度自编码网络用于故障融合诊断,把性能参数和故障类型样本输入到自编码网络模型中,提取出样本特征,从而输出故障分类数据,然后把输出数据带入到决策融合算法模型中进行决策融合,得出故障融合诊断结果。该方法能够在结合两种模型优势的基础上,简化结构,不仅有效提高故障诊断准确度,而且能够得出更加直观的故障诊断结果,同时有一定抗干扰性。
2 深度自编码网络原理
深度自编码网络也称栈式自编码网络,它是由多层自编码器AE(Auto-Encoder)堆叠而成的神经网络,结构上与传统多层神经网络没有区别,训练时采用逐层训练的方法,即将前一层的输出作为下一层的输入依次训练,有效解决了传统神经网络训练方法不适用于多层网络训练的问题。
网络预训练是深度自编码网络的主要步骤,其过程实质上就是初始化网络参数的过程,采用逐层无监督特征优化算法,需要初始化的网络参数是层与层之间的连接权值及各层神经元的偏置值。以1层AE为例,1个基本的AE可视为1个3层的神经网络结构,即输入层、隐含层和输出层,其中输出层与输入层规模相同。从输入层到隐含层是编码过程,从隐含层到输出层是解码过程。设f和g分别表示编码和解码函数,则2个过程可分别表示为式(1)和式(2):
其中, 和 通常取为sigmoid函数;W为输入层与隐含层之间的权值矩阵, 为隐含层与输出层之间的权值矩阵,通常取为 ;p和q分别为隐含层和输出层上的偏置向量。为了下文表示方便,将AE的参数记为 ,即 。
假设训练样本集 ,预训练AE的过程实质上就是利用S对参数 进行训练的过程。为此,首先需定义1个训练目标,即解码后的y应与输入x尽可能地接近,这种接近程度可以通过重构误差函数 来刻画, 定义为:
基于重构误差函数,针对训练数据集S,损失函数如式(4)所示。然后利用梯度下降法对损失函数进行极小化,就可以得到该层AE参数 。
一层AE训练完成之后,将其隐含层单元的输出向量作为下一层的输入,对下一层AE进行训练,依次迭代多层,直至最终完成整个深度自编码网络的训练,具体网络结构图如下。
3故障诊断模型
基于深度自編码网络的故障融合模型结合了自编码网络和决策融合模型,先通过自编码网络模型提取故障样本的性能参数特征,再对故障分类结果进行决策融合。具体模型运算步骤如图2 所示:
1)采集数据,构建训练样本矩阵、标签矩阵和测试矩阵。样本矩阵为大小为m*n,其中m为故障数,n是状态参数个数。分别设置合理的网络层数和节点个数,网络初始状态参数设为极小值;
2)把训练样本输入深度自编码网络中,得出权值w和其余相关训练参数;
3)把训练得到的参数输入到 BP 神经网络中进行反向优化训练,得到最终的网络模型,得到对应不同故障类别的特征码;
4)将特征编码输入测试样本得出故障类别;
5)重复步骤4进行多次实验,把得出的故障分类置信度结果输入到决策融合模型中;
6)根据决策融合结果得出故障融合诊断结果;
7)分析故障融合诊断结果,并统计正确率。
4结论
深度学习在语音识别、游戏和机器视觉领域的成功应用,带给了故障诊断前所未有的启发。故障诊断领域由深度强化学习带来质的飞跃。在未来的时间里,深度学习的思想和方法将会越来越多地被人们应用在故障诊断领域。本文将深度自编码网络与决策模型相融合,应用到故障诊断问题中,进一步扩展了故障诊断的思路,有效的改善了故障诊断的精度。
参考文献
[1]朱德恒,严璋,谈克雄,等.电气设备状态监测与故障诊断技术[M].北京:中国电力出版社,2009:10-25.
[2]遇炳杰,朱永利.加权极限学习机在变压器故障诊断中的应用[J].计算机工程与设计,2013,34(12):4340-4344.
[3]周建华,胡敏强,周鹗.基于共轭梯度方向的CP-BP算法在变压器油中溶解气体诊断法中的应用[J].中国电机工程学报,1999,19(3):41-45.
[4]HINTON G E,SALAKHUTDINOV R R. Reducing the dimensionality of data with neural networks [J]. Science,2006,313(5786):504-507.