基于机器学习与空时特征融合的洪水预测

来源 :西安电子科技大学 | 被引量 : 0次 | 上传用户:fht5403
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
我国洪水灾害频发,严重威胁着我国人民的生命财产安全,每年造成巨大的经济损失和人口伤亡,如果可以在洪峰峰值和洪水到达时间上实现高精度的预报,提前指导灾区人民紧急避险,就可以将损失大大减少。传统的洪水预报模型涉及洪水产生的物理过程,面临着计算复杂,后期维护成本高,开发周期长等困境。即使是专业人士,在传统模型迁移到新流域后,其内部主要的十几个参数也需要较长时间的推断以及实地测量才能确定。随着计算机技术的发展,尤其是计算机计算能力的提高,以机器学习为主导的计算机科学技术得到了大范围的应用,利用保留的历史水文数据,采用机器学习的技术搭建有效的洪水预报模型取得了丰富的成果。但是现有的基于机器学习以及深度学习技术的洪水预测模型存在着数据特征挖掘不足的情况,尤其是对于输入的降雨数据仅仅挖掘了明显的时序特征,而忽略了其固有的空间分布特征。这种特征挖掘不足的现象,使得整体的洪水模型预测精度不高,且极易出现过拟合现象。本文采用机器学习的技术设计了两类模型来对洪水的峰值以及洪水到达时间进行准确预测,一方面避免了传统模型手段中面临的复杂度极高的参数率定问题,另一方面通过引入卷积操作有效的解决了现有机器学习模型中普遍存在的降雨数据空间分布特征挖掘不足的现象,本文所作的主要工作如下所示。1)本文首先对研究区域进行地形环境研究,明确了水文站之间的实际地理空间分布。对原始的流量以及降雨数据进行预处理,进行缺失值补全、数据归一化、数据特征相关性分析等操作,为模型的设计与训练提供数据支撑。2)提出了基于卷积自编码器结构的空时特征融合分析模型CAe-RNN(Convolutional Autoencoder Recurrent Neural Network),针对于现有的数据驱动模型对降雨数据空间分布特征挖掘不足的问题,本文引入卷积自编码器结构来进行空间特征挖掘,构建了CAe-RNN模型。具体工作如下:A.将研究区域的降雨数据进行二维网格化处理,利用卷积神经网络对所生成的网格化降雨进行分析,来提取降雨数据的空间特征。B.采用预训练的方式对卷积自编码器参数进行矫正,有效避免网格化后数据量激增以及网络参数过多导致的训练速度慢的问题。C.提取出的降雨空间特征按照时间步的先后顺序进行组合,进一步通过循环神经网络挖掘其在时序上的关系,实现空时特征的融合分析。D.结合河道历史流量信息,预测模拟输出未来一个时间段的洪水流量数据。3)创新性的将图神经网络相关概念引入到洪水预测领域,提出了基于频域的图卷积神经网络空时特征融合分析模型GC-RNN(Graph Convolutional-Recurrent Neural Network)以及基于空域的图注意力网络空时特征融合分析模型GA-RNN(Graph Attention-Recurrent Neural Network)。上述两种模型均可以有效的解决现有的降雨数据空间分布挖掘不足的问题,同时还极高程度的模拟了实际降雨汇聚过程。具体工作内容如下:A.原始数据抽象为图数据,将实际雨量站、河道抽象为图数据中的节点与边,每个站点的降雨量作为对应图数据中节点的属性值。考察实际河流的流向来构建不同节点之间边的方向。B.构建深层图卷积神经网络、深层图注意力神经网络对生成的图数据进行空间分布特征的提取挖掘。C.对图数据提取出的空间分布特征进一步通过循环神经网络,挖掘降雨的时序信息,实现空时特征的融合。D.结合河道历史流量信息,预测模拟输出未来一段时间的洪水流量数据。为了测试本文构建模型的实际效果,基于河南省息县境内50个水文站的历史降雨和流量数据进行实验。在全年河道流量的预测效果上,洪水峰值与洪水到达时间预测误差均满足水文生产规范。为了进行模型预报等级评估,挑选历史数场典型的洪水过程进一步考核,CAe-RNN、GA-RNN、GC-RNN分别被评定为甲级、乙级、丙级洪水预报模型,均可以用来指挥实际的洪水预报行动。为了证明本文所提出的模型提取降雨空间特征带来的优势,与现有的无空间特征提取的模型进行实验性能对比,结果表明,本文提出的模型在预测误差上降低了15%到40%,证明了所述模型设计思想上的先进性与合理性。
其他文献
自动驾驶技术和新能源汽车近年来发展非常迅猛,无论从市场需求还是国家战略来看,自动驾驶技术和新能源汽车势不可挡。这使得汽车电子需求增加,而由于其特殊的应用场景,对电子器件和系统提出了更高的要求,安全问题首当其冲。芯片在汽车电子系统中发挥着举足轻重的作用,芯片的功能安全一直是研究的热点。本文设计并完成了一种基于ECC算法和奇偶校验的AXI总线保护机制。该保护机制可以直接集成在原有的AXI接口上,并且不
嵌入式视觉系统在工业检测、医疗、消费电子等领域都有重要的应用前景。但是对于不同的嵌入式软硬件平台,目前还没有一种通用的移植与应用方案。针对上述问题,论文对一种基于ARM的Linux嵌入式视觉系统应用方案开展了研究,将图像处理、目标检测、对象分类等视觉技术应用在嵌入式平台,对嵌入式技术和计算机视觉技术的持续发展均具有良好的促进作用。论文主要研究工作如下:(1)搭建了一个基于Exynos4412处理器
学位
人脸图像作为互联网时代重要的信息媒介,能够携带充分的有效信息,得益于其采集过程便捷友好,逐渐成为了主流的个体身份标识之一。根据获取人脸信息的传感器与方式的不同,人脸图像也具有多样的表现形态,通过诸如可见光摄像机、红外摄像机和人物面部素描画法等方式可得到多种模态的人脸图像。基于相同的设备或描述方式得到的人脸图像构成了同一个模态。跨模态人脸图像生成是指将输入的某种模态人脸图像转换为指定目标模态下的人脸
微波雷达生命体征感知技术将新兴的生命科学与飞速发展的微波无线通信技术相结合,极具前沿创新价值,由于具有穿透性强、探测精度高和环境适应能力极强等突出优点,是新一代生物探测及其智能分析领域的重要支撑技术,对于未来智能医疗、生物雷达、安全防护和救援等尖端技术的发展具有极其重要的作用。伴随着相控阵、微电子和片上系统技术的飞速发展,微波生命体征感知系统及芯片研究逐渐成为国内外关注的热点问题之一。因此,本文主
纸质文件数字化对于信息提取、文本内容分析和文化交流传播具有重要意义。本文针对物流仓储包裹上标签的数字化展开研究,属于特殊场景下的纸质文件数字化研究。在运输存储过程中,货物表面的标签易产生折叠、扭曲、褶皱等几何形变,同时采集人员往往手持移动设备捕捉标签图像,更是带来了采集角度不固定、光照不均匀、图像模糊等问题,使得常用的场景文本检测与识别方法难以提取标签图像中的文本信息。针对上述问题,本文面向仓储包
学位
随着电子科学的进步和电子终端市场的不断发展,各种电子设备的数字信号传输速率不断提高,并行总线已经不能满足处理器的发展速度。想要有效提高总线的传输速度,一般有两种途径,一种是提升频率,另一种是提升处理器位宽。如果一味的提升频率,则可能会导致并行总线信号间的串扰增多,从而使得时序难以收敛;如果提高位宽,则会使信号线的数量增多,又会带来其他许多不必要的问题。基于以上问题,高速串行总线开始登上历史舞台,逐
学位
合成孔径雷达(Synthetic Aperture Radar,SAR)船舶检测是SAR图像解译任务的重要组成部分,可在军事侦察、民事探测等任务中提供信息支持。SAR图像船舶检测的结果可作为其他解译任务的前置条件,检测结果影响整个SAR图像自动识别系统的性能。针对SAR图像船舶检测遇到的问题和深度学习模型的优点,本文提出了基于深度学习的SAR图像船舶检测。神经网络从图像数据中学习船舶目标的抽象特征