基于混合深度学习的复杂网络链路预测研究

来源 :计算机仿真 | 被引量 : 0次 | 上传用户:viagra2
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
针对复杂网络链路预测受到网络性质的影响,从而降低复杂网络链路预测效果,提出基于混合深度学习的复杂网络链路预测方法.利用复杂网络在运行过程中的链路变化情况,综合考虑复杂网络历史信息对链路的影响系数,得到了RA指数、AA指数和CN指数等相似指数,基于混合深度学习的反向传播流程,分析复杂网络链路隐藏层的状态,利用复杂网络隐藏层的输出,预测出复杂网络链路输出值,将相似性指标作为复杂网络链路预测的训练样本,构建复杂网络链路预测模型,利用模式分类方法实现多个网络节点之间的链路预测.实验结果表明,基于混合深度学习的复杂网络链路预测方法将时间窗口设为360秒和180秒、样本维度为500和600时,预测效果是最好的,且预测精度较传统方法的预测精度高.
其他文献
为获取多孔材料最准确的吸水特性,在理想流体温度环境下,通过热平衡算法计算多孔材料吸水性并进行仿真研究.分析多孔材料内流动与传热影响,无量纲化处理流体速率,构建热平衡计算能量方程,明确热平衡模式下多孔材料固体和流体状态;组建一维多孔材料水分运动解析式,计算多孔材料吸水初始条件与上、下边界条件,得到多孔材料吸水模型,将吸水率运算当作非线性最小优化问题,求解多孔材料吸水模型参数,获得精确吸水性测量信息.在热平衡环境下对多孔材料单面浸泡、整体浸泡与真空饱和三种吸水状态进行仿真,结果表明:多孔材料在热平衡环境下孔隙
传统的数字系统延时控制过程不能对系统的时间延迟进行准确预测,导致其存在拟合率低、网络传输延时过长和负载率低的问题.为解决上述问题,基于神经网络设计了新的无缓冲数字系统延时控制模型.使用时间戳技术记录采集到的数据包时间,并根据延时预测器预测在线网络延时.采用神经网络SMITH预估结果对无缓冲数字系统延时进行预估补偿,在SMITH估计模型的基础上构建无缓冲数字系统延时控制模型.通过PIP控制算法获得无缓冲数字系统延时控制模型的最优解.实验结果表明,上述模型的拟合率和负载率均较高,且能够有效减少网络传输延时,充
在深度信念网络(Deep Belief Network,DBN)应用于图像、视频等领域中,研究者们普遍通过实践经验设置DBN基本网络结构—DBN深度及每层神经元的个数.将DBN模型作为入侵检测分类模型,提出了DBN模型中基本网络结构的适应度标准,利用该标准提出了一种用于寻找DBN优化网络结构的改进粒子群优化算法.算法首先利用鱼群思想优化粒子群优化算法搜索初始优化网络结构,然后将初始优化网络结构作为利用滑动窗口优化粒子群算法的初始值,继续寻优直到找到全局优化网络结构.将优化算法构造的DBN模型作为入侵检测分
图像超分辨率旨在通过软件技术从低分辨率图像中获得高分辨率图像.受深层神经网络对非线性关系强大表示启发,提出一种基于多尺度密集连接网络的图像超分辨算法.利用多尺度和密集连接思想设计了两个并行子网络提取图像特征,一个子网络中引人多尺度卷积层以提取低分辨图像的多种特征,另一个子网络则利用密集连接模块加深网络结构尽可能提取丰富的纹理特征,同时还可以避免模型训练过程中梯度消失的问题.最后对两个子网络提取的特征求残差并对其行重构得到高分辨率图像.仿真结果表明,提出的算法无论在客观评价还是视觉效果上均优于其它同类超分辨
针对癫痫病人采集的EEG信号数据维数过高和含有复杂的非线性特征的问题,以及脑医学领域数据标注的成本较高的现状,研究了不同的无监督流形降维方法,并且在公开的癫痫集上对比了13种主流及较新的流形降维算法降维后在低维坐标空间的聚类效果.实验结果表明,与目前主流的其它流形及降维方法相比,基于L-ISOMAP得到的数据点在低维空间的分布有很好的聚类表现,不同类别的数据分界明显.当样本大小不同时,降维后的数据分布在可视化图中仍有一定的规律性,可视化效果明显优于其它的降维方法.
对机械产品三维模型数据量大不利于网络传输和Web显示的问题,提出了基于半边折叠的三维模型简化算法.通过引入顶点领域三角形平均面积、顶点领域三角形的法向量变化以及折叠边的边长,计算折叠代价,通过对折叠代价排序与预先设定好的阙值,对机械产品三维模型进行简化处理.实验结果表明,该算法有效减少了机械产品三维模型的数据量,提升了Web环境下机械产品三维模型数据传递和浏览器显示的流畅性,对机械产品分布式设计和制造技术的发展起到了促进作用.
考虑到软件老化具有动态性,准确预测软件老化趋势,可降低软件老化所造成的损失,提出基于动态命令树算法的软件老化趋势预测方法.采用基于降噪自编码器与混合趋势粒子滤波的软件老化趋势预测方法,通过软件未老化特征训练降噪自编码器,把软件老化特征数据输入训练完毕的降噪自编码器中获取重构误差,对重构误差进行平滑处理后,设成观测值输入混合趋势粒子滤波算法,实施软件老化趋势预测.在预测阶段,使用基于动态命令树算法的软件老化趋势预测命令管理方法,实现软件老化趋势预测指令的动态管理,优化软件老化趋势的动态预测效果.实验结果表明
针对柔性作业车间调度问题,传统的优化算法存在运行时间长、运行结果不稳定且不能有效求得近优解等问题.提出一种混合优化遗传算法(mGAs,Modified Genetic Algorithms),采用动态调整交叉概率和变异概率的自适应遗传算法,并使用量子粒子群算法优化染色体的选择算子.通过在经典数据集上与其它若干算法进行实验,结果表明了所提出算法相比同类优化算法,提高了算法的自适应能力,mGAs收敛速度更快、可以有效解决柔性作业车间调度问题,有效求取近优解.
针对Semi-TCP协议在软件仿真下可信度较差和硬件仿真下难以实现且网络规模较小的问题,提出基于Exata仿真内核和TiPot开发板的半实物仿真方法.方法 中搭建的Semi-TCP半实物仿真平台包括两部分,一部分是基于Exata搭建的虚拟场景,在其中构建多跳无线网络,并在Exata无线网络协议模型库中加入semi-TCP协议;另一部分是基于TiPot开发板搭建的真实场景,将外部实物节点与虚拟场景中的虚拟节点进行映射,并通过网关将两部分连接为一个整体.然后在真实-虚拟-真实的网络配置模式下,实现并测试Sem
以实现数据增量式精准挖掘为目的 ,提出基于机器学习的不确定数据增量式挖掘算法.以机器学习算法中的模糊c-均值聚类(FCM)算法为基础,通过主成分分析法筛选原始数据集中指标,利用Relief算法计算指标权重,实现FCM算法改进.改进FCM算法通过阈值定义目标函数,经样本数据分类、特征提取和聚类,使目标函数达到最小值,实现数据挖掘.实验结果表明,上述算法的数据样本分类符合率可达99.28%,分类准确率在98%左右,且分类耗时短、效率高;特征提取能力受数据量增加影响较小;在数据增量情况下,改进算法增量式挖掘准确