论文部分内容阅读
随着互联网的普及与规模的持续增长,数据的刻画形式越来越复杂。传统的算法大多将数据展开成一维向量,再使用基于向量的算法对数据进行处理,这样不仅破坏了数据结构,也为后续深入研究带来麻烦,所以为了克服向量化数据所带来的弊端,基于向量的算法日益被支持张量的运算取代。这里提出了一种新的基于张量的深度字典学习算法,用以直接处理张量数据,提取特征信息。论文首先根据张量的基本定义中的线性组合特性和卷积平移不变性的特征,提出了一种基于张量的字典学习算法(T-DL)且给出了其具体的计算步骤,并将新的算法与TenSR算法在哥伦比亚大学的MSI数据集上做去噪的对比实验,验证了该算法在达到相同甚至较好结果的情况下,运行速度压缩了很多;随后,论文结合深度学习的优势,提出了一种新的基于张量的深度字典学习算法(T-GDDL)且给出了其具体的计算步骤,并结合KNN分类算法,与T-DL算法和其他深度学习的DBN和SAE算法做分类的对比实验,验证了T-GDDL算法对于MNIST手写数据的分类准确性较高,且运算时间比其他深度模型快;最后,针对现在网络信号的时间、空间和属性的多模态性,设计并实现了一个基于张量的网络异常检测系统,利用张量运算对张量的网络数据进行降维处理,有效减少异常检测的时间空间复杂度,同时也提高了异常检测正确性,有利于维护网络安全。将公用数据集KDD CUP 99做了一定程度的扩展,加以随机的时间特性,构成以时间轴、样本点和样本属性的张量网络数据,利用文章提出的T-GDDL算法对原始网络数据特征提取,再使用SVM算法检测网络异常。对比使用张量和向量降维后进行异常检测的偏差比例,证明了新方法有更好的异常检测效果。实验表明,论文所提出的基于张量的深度字典学习算法因为是基于张量的运算,在运算过程中的信息损失较少,所以相对于其他基于向量的深度模型算法,具有较高的准确性。