合成数据驱动的图像融合方法研究

来源 :江南大学 | 被引量 : 0次 | 上传用户:shuang901014
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
图像融合是一种图像增强技术,通过将不同类型的传感器获得的图像组合起来,从而生成具有丰富信息和鲁棒性良好的融合图像,以便后续的图像处理。图像融合技术广泛使用在军事、遥感、安全监控和医学图像等领域。融合方法设计的关键是高效的图像信息抽取和合适的融合规则,并且要避免人工因素对融合结果的影响。传统的图像融合算法基于手工设计融合规则,算法复杂且运行速度慢,泛化能力及鲁棒性较差。随着深度学习在图像融合上的应用,避免了手工设计融合规则。生成对抗网络GAN(Generative Adversarial Networks)作为深度学习在图像融合上的典型应用,其通过生成器提取红外与可见光的特征进行融合,通过与鉴别器进行对抗,优化生成器训练。由于缺乏有标签的数据,以往的图像融合网络几乎都采用无监督方式训练,而部分无监督方式却难以平衡红外与可见光图像两种模态,因此合成一批红外与可见光图像进行有监督的网络训练是有必要的。本文的主要研究内容如下:(1)在以往的融合网络中,无监督训练是图像融合的主流方法,由于缺乏有标签的数据集,没有GT(Ground Truth)指导融合。为了克服标签缺乏这一困难,本课题合成一套带有GT的红外与可见光数据集来指导网络的训练。本研究使用来自纽约大学的RGBD数据集NYU-Depth作为合成图像的基础数据,通过光传输模型,根据红外热辐射成像机理,红外图像对天气抗干扰能力强的特性,以及深度图模拟光在传输的损耗来模拟红外图像以及可见光图像。(2)由于没有真实融合图像作参考,现有的图像融合方法缺少融合图像作为监督条件,基于监督学习的训练方法难以应用于图像融合,现有的融合网络都是尽可能的在两个模态间找到平衡。基于此,提出一种基于光传输模型的红外与可见光图像融合方法,基于合成的数据集在条件GAN中设计边缘和细节损失函数,用合成的多模态图像数据集以端到端的方式训练该网络,最终获得一个融合网络。该网络可以使融合图像较好的保留可见光图像的细节和红外图像的目标特征,锐化红外图像热辐射目标的边界。在TNO公开数据集上与主流的IFCNN,Dense Fuse,Fusion GAN等方法对比,通过主观和客观的图像质量评价检验了该方法的有效性。所提方法在红外与可见光图像和多聚焦图像融合中都取得了较好的融合效果。(3)由于红外和可见光成像特点的不同,在红外图像中拥有更多的轮廓结构信息,在可见光图像中拥有更多的纹理细节信息,在以往的融合框架中,会将红外和可见光图像堆叠放入神经网络中训练,提取通用特征,忽略了红外和可见光的各自特征。因此在有监督的融合框架下,通过深度卷积对抗网络DCGAN(Deep Convolutional Generative Adversarial Networks)来分别获取红外的结构信息和可见光的纹理信息,然后交换红外图像与可见光的纹理信息进行融合。在此基础上将生成器的结果与鉴别器进行博弈,最终生成融合图像。在TNO公开数据集上与主流的融合方法对比,通过主观和客观的图像质量评价检验了该方法的有效性。
其他文献
随着信息技术的快速发展,各行各业所创造的数据总量以惊人的速度快速增长。为了能从海量的数据中获得有效的信息,数据挖掘技术应运而生。目前,数据挖掘已被广泛应用于多个领域,在全球竞争、社会生活等方面均发挥了重要作用。但是在实际应用中,人们发现很多数据集的样本并不是均衡分布的。而且,传统分类算法是建立在数据分布均衡的基础上,处理不均衡数据会过多关注多数类样本,难以保证更有分类价值的少数类样本的分类性能。因
随着计算机视觉技术的发展,目标跟踪技术作为其中一项研究热点,在医学诊断系统,智能交通,机器视觉,行为识别等领域都有着广泛的应用。虽然,近些年国内外专家学者对目标跟踪技术贡献了各种各样的算法,但由于复杂多变的目标跟踪应用场景,依然面临着诸多挑战,例如:运动模糊,低分辨率,平面内(外)反转,物体遮挡等。这些挑战使得现有目标跟踪技术的跟踪效果与专家们的预期还有一定的距离。因此,如何提高跟踪技术的效率和稳
近年来,随着图像传感器技术及图像处理算法的日趋成熟,机器视觉检测技术在检测精度大幅提升的同时,其自动化检测生产线的成本大幅下降,这使得机器视觉检测技术在生产和生活的各个领域中得到广泛应用。但由于被检测物体种类丰富多样,表面特性变化多端,导致机器视觉缺陷检测技术在某些对光源要求严格的低适光性物体表面缺陷检测的应用中存在一定困难。为此,本文以高纹理物体表面和高反光曲面等低适光性表面为主要研究对象,设计
细粒度图像分类是指对大类下的子类进行更加精细的划分,比如区分一只鸟是海鸥还是大雁。随着人工智能的发展,同一基本类别下的物体的子类别分类的需求日益增多,如商品的品牌分类、植物研究领域的植物分类、车辆的型号和品牌分类等。然而,由于细粒度图像类别之间的差异很小,类别内部差异较大的原因,细粒度图像分类是一项非常困难的任务。由于子类别通常具有较小的类间差异,需要靠微小的局部差异对类别加以区分。论文在深度学习
聚类算法作为模式识别、数据挖掘领域的重要研究内容,受到研究者的广泛关注。近年来,许多对团簇状的数据表现出较好性能的聚类算法被提出,但面对结构复杂、边界不易区分、非球形分布和高维的数据集,单个聚类算法很难得到较好的聚类结果,集成聚类算法则可以解决上述问题。本文从多个方面研究集成聚类算法,并对集成聚类算法进行改进,具体研究内容如下:1.提出一种超簇加权的集成聚类算法。由于大多数集成聚类使用K-mean
目前多视角聚类已取得了重要进展,但仍然面临诸多挑战,其中一个关键的挑战是:尽管大部分多视角聚类方法提出了不同的视角协同机制,但大部分方法在进行多视角协同时间,仅利用显式的原始空间信息或者仅利用某些隐性空间的信息,因而未能充分实现显隐信息间的协同。此外,拓扑结构是数据集的重要的信息,但多数多视角聚类算法进行协同学习时,未能充分利用此类信息进行协同。针对上述挑战,本文提出了两个多视角聚类算法,较之于目
锅式杀青是由茶农在锅内翻炒茶叶,并根据茶叶气味及颜色的差异及时调节锅温,改变茶叶受热量。因人工感官反馈控制的优势,这种杀青方式主要用来处理名贵茶叶。然而受主观因素和环境因素的影响,这种杀青方式均一性较差,且手工控制锅温,耗费人力。因此,本文以绿茶鲜叶为实验材料,利用PEN3电子鼻和视觉在线检测技术代替人的嗅觉和视觉,对不同恒定锅温杀青过程中绿茶气味和颜色进行测量并对其变化规律及变化机理进行研究,同
近年来,随着网络、大数据、人工智能的飞速发展,在网络成为人们生活中不可或缺的一部分的同时,自媒体行业也日益壮大。网络中不可避免的呈现出一些非合规图片。这不仅污染了网络环境,也在一定水平上影响到了人们的身心健康。其次,在信息时代的成长下,深度学习成为这个范畴比较突出的一个方面。一般来说,深度学习会耗费了大批的计算力和内存等。对神经网络来讲,神经网络越精密,所获得的成果就会越准确。这使得经过深度学习后
艺术品的量化评估是实验美学、计算美学、计算机艺术、人工智能艺术等许多领域的基础。计算美学领域的研究集中于图形艺术客观物理特征的测量和计算,而实验美学领域的研究则集中于主观心理感受的量化。这些研究为审美对象提出了多样化的美学评估指标和方法,但在很大程度上忽略了书画作品的“可追溯感”的美学评估。可回溯感是艺术欣赏和临摹中想象地再现原作创作行为的一种审美体验,其本质是与创作者产生“共情”。书法的这一审美
本文主要针对具有周期性变化图案的纺织品,研究对其瑕疵部分进行检测的算法。在传统图像处理领域,针对纺织品图像由于在拍摄生成的过程中存在的拉伸和旋转形变,提出一种图像校正方法,将不同程度变化的不规则图案校正为符合图像本身周期规律的整齐图案。在深度学习领域,在传统自编码器的基础上加入SSIM损失函数和高斯噪声项,以提高对图像的重构能力,用于将有瑕疵的图像重构为无瑕疵图像,以实现对瑕疵部分的识别。利用深度