基于CPU-GPU协同的矢量点/栅格大数据并行邻域计算研究

来源 :武汉大学 | 被引量 : 0次 | 上传用户:yuan398699360
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
随着传感器技术和空天地观测技术的迅速发展,空间数据采集能力得到显著增强,地学测绘领域迎来了数据规模的爆炸式增长。多类型、大体量的空间大数据对计算硬件和算法设计均提出了严峻挑战。邻域计算作为一大类典型计算类型,其应用遍及栅格和矢量数据的处理与分析、时空过程模拟和空间统计分析等诸多细分研究领域。面对空间大数据的快速处理需求,邻域计算亟需通过高性能并行化以提升算法计算效率。为此,领域学者基于多核CPU和通用GPU两种主流并行方式展开研究,并涌现出为数众多的并行邻域算法成果。
  然而,基于单一并行模式的邻域算法不能综合充分地发掘CPU-GPU异构系统的计算潜力。为进一步提升大数据并行处理效率,本文研究基于CPU-GPU协同的并行邻域计算。高效的CPU-GPU协同并行首先必须保证邻域算法在CPU端和GPU端的合理任务映射和高效并行化。考虑到CPU并行的成熟性和GPU并行设计的复杂性,本文主要研究面向邻域计算的通用GPU性能优化模型。在此基础上,顾及CPU-GPU性能差异和空间异质性问题,研究适合异构系统的空间数据分解策略和任务调度策略,从而实现整体负载均衡。
  故此,本文的主要研究内容和创新点包含以下三个方面:
  1)针对GPU并行邻域计算面临的有效数据组织、并行优化和硬件自适应性挑战,提出一种面向邻域计算的通用GPU性能优化模型。具体而言,在数据组织方面,提出HG-GSPP模型以对矢量点和栅格数据进行统一格网化组织,从而实现GPU带宽的高效利用。在此基础上,本文提出邻域共享与任务映射模型以优化并行邻域计算过程。该模型根据相邻目标单元存在邻域重叠的特征,通过复用寄存器资源实现对邻域数据集的高速缓存,最终提升GPU并行计算效率。在硬件自适应性方面,本文综合考虑硬件能力、算法需求与优化规则等多种因素,提出基于动态规划的自适应资源最优配置模型,实现算法的硬件自适应性和计算资源高效利用。
  2)顾及CPU-GPU性能差异和空间异质性问题,将常用负载均衡策略直接用于CPU-GPU协同并行计算难以实现负载均衡。对此,本文首先提出Logarithmic-RPE模型以实现对GPU性能变化趋势的高精度建模,并应用该模型对CPU-GPU相对性能和最优空间划分粒度进行准确估计和预测。基于Logarithmic-RPE模型,提出匹配CPU-GPU不同计算能力的层次域分解方法和线扫描域分解方法。在此基础上,HS-TP异构调度策略引入权值优先级,通过对空间异质性进行量化计算,实现异构系统中的良好负载均衡和整体性能最大化。
  3)现有并行邻域算法主要采用单一并行模式,难以有效发挥CPU-GPU异构系统的最大计算性能。为支持空间大数据在异构系统中的划分管理和邻域计算的高效并行化,本文提出一种基于CPU-GPU协同的并行邻域计算框架HP-NRCF。在HP-NRCF框架中,数据管理模块支持矢量点和栅格数据的表达、组织、划分与管理;计算引擎模块负责计算资源管理和实现邻域计算的高效并行化,并支持多种并行模式;调度与算法库模块则为并行邻域计算提供高效的调度策略和邻域算法库。三大模块相互耦合,完整支持面向矢量点和栅格大数据的多类型邻域算法的协同并行计算。
其他文献
学位
学位
学位
学位
学位
学位
学位
学位
学位
随着自动驾驶、机器人和无人机等技术的兴起,城市等复杂GNSS(Global Navigation Satellite System)环境下的高精度定位定姿需求不断增长。GNSS/INS(Inertial Navigation System)组合导航能够提供连续、可靠和完备的高精度导航参数,是应用最广的组合导航技术之一。然而,在GNSS复杂环境下,基于低成本MEMS-IMU(Micro-Electr
学位