计算多项式函数的高效可靠数值算法库

来源 :2012全国高性能计算学术年会 | 被引量 : 0次 | 上传用户:njtangxn
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
  当前在高性能计算机平台上,大规模、大尺度、长时程数值计算由于浮点计算的舍入误差累积效应,常导致不可信的数值结果。于此同时,多项式函数广泛应用于大规模工程科学计算的各个领域,快速可靠计算多项式函数值在高性能计算中显得尤为必要。本文运用无误差变换理论,从浮点运算代码层面上,分析舍入误差累积效应及其在计算多项式函数值算法中的代数结构和统计特性,进而设计误差可控的补偿数值算法。以此为基础构建了计算单变量和多变量的不同类型多项式函数及其导数值的快速高效可靠的数值算法库。作为计算机数值算法的底层基础研究,该算法库将在一定程度上提升我国高性能计算机的实际应用效率,推动大规模可靠科学计算相关应用领域的发展。
其他文献
空间遥感器在发射过程中要经历复杂的力学环境,对其采取隔振措施能够提高遥感器抗发射力学环境的能力。对遥感器整机隔振的动力学特性进行了仿真研究。建立了卫星、遥感器主体和内部组件相互耦合的简化结构模型,采用导纳传递法推导出简化结构的理论模型,据此模型进行了仿真研究。研究结果表明:遥感器整机隔振技术能够改变系统的动力学特性,衰减高频振动响应。隔振频率越低、阻尼越小,隔振效果越好,但频率过低、阻尼过小时也会
与滤光片式与光栅型光谱仪器相比,傅里叶光谱仪具有多通道、高光通量、高光谱分辨率、宽光谱等优点,工程应用时面临的问题之一是仪器的数据率与数据量都相当可观,在目前技术条件下无法直接下传,通过星上数据处理可有效的降低仪器下传数据率;傅里叶光谱仪获取的是目标的干涉图,须经光谱反演等处理才能获得目标的光谱数据。自上世纪70年代以来已有多个干涉仪器升空或计划发射。本文首先介绍了星载傅里叶光谱仪的发展,然后介绍
卫星搭载的有效载荷在轨运行期间新引入的周期性或非周期性干扰,需综合运用多种数据来源和关于干扰产生原理的先验知识,并结合图像处理手段实现图像恢复,同时保存原有辐射信息的真实性,为定量研究提供高质量可靠的数据准备。本研究针对某中波红外图像干扰条纹,利用星上定标数据,并通过条纹现象和机理分析,探索了一种新的基于空域信号补偿原理的图像条纹处理算法,实践证明,该算法可以大幅的改善图像质量,并保留辐射信息的可
针对阵列波导光栅设计中自由传播区模式有效折射率的确定问题,提出了采用加权等效模式折射率作为自由传播区模式有效折射率的方法。基于三维全矢量束传播法对自由传播区光场进行了模式分析,在此基础上,结合导模传输分析法,推导给出了加权等效模式折射率的表达式。
尽管高性能计算机性能提升越来越快,但由于其体系结构的复杂性和微处理器的复杂性,并行应用程序普遍存在性能问题,许多实际应用的持续性能通常只能达到机器峰值性能的5~10%,因而并行应用性能优化一直是高性能计算领域关注的焦点之一。本文主要从如何提高并行程序的单任务执行效率角度进行并行程序优化的探讨,以基于JASMIN 框架实现的Euler 为例,探讨并行程序在Xeon 微处理器平台上的具体性能问题和指令
随着获取设备的发展,大尺度、高分辨率数字图像已逐步步入现代人们的生活,大尺度图像的梯度域编辑显得更为重要。求解大规模未知数的泊松方程是大尺度图像梯度域编辑的关键,传统多重网格算法的迭代、约束和插值操作单独进行,内存和外存间通讯量大,算法效率低,为此本文提出了一种面向大尺度图像梯度域编辑的并行多重网格求解泊松方程的算法,利用多重网格的迭代、约束和插值过程的内存数据访问局部性和更新相关性,构造滑动工作
高性能计算机系统规模越来越大,系统可靠性问题越来越严重。检查点技术是最典型的容错方法,但是因为并行文件系统的性能提高相对缓慢,数据写带宽低,传统检查点方法产生了严峻的性能问题。针对当前计算机系统计算和存储资源丰富,而并行文件系统写带宽提高相对滞后的特点,本文提出基于内存缓存的异步检查点容错技术,传统的检查点技术被划分为两步:检查点文件首先被缓存在计算结点的局部内存,然后使用一个独立的帮助任务将数据
任务调度问题是一个NP完全问题,基于启发式的方法通常被用来求解次优解,其性能在很大程度上依赖启发的成效,在复杂问题时可能会产生不理想的结果.鉴此,根据DNA 双螺旋结构模型,提出了一种异构计算系统中DAG 任务调度的双螺旋结构遗传算法(DHSGA),DHSGA 算法将GA 算法和启发式方法有机的结合,首先针对DAG 任务图的数据依赖关系,采用启发式方法,控制GA算法的交叉与变异操作合理改变一个染色
由于处理能力强且成本功耗相对较低,利用GPU运行仿真应用可获得成本和性能的双赢。在基于GPU的并行离散事件仿真中,动态不规则的存储空间需求以及深度并发的存储空间分配请求等因素导致仿真事件的存储管理十分困难。针对这一问题,提出了一种基于GPU的并行离散事件仿真存储管理算法。首先分析仿真内核函数的仿真事件存储管理需求,提出存储管理算法框架并建立需求模型,进而推导出该模型下最优的存储管理算法,最后对算法
并行流水线Sn 扫描算法是在非结构网格上求解粒子输运方程的一种重要方法。本文在分析JASMIN框架下的并行流水线Sn 扫描算法的基础上,在多核集群平台上,算法并行性,通信效率,均衡负载等几方面,提出了一种优化算法。实验结果显示,与原JASMIN 的并行流水线Sn 扫描算法相比,优化算法在单个处理器上性能平均提高30%,在可扩展性上,当处理器的总核数从12 增加到384 时,加速比始终呈线性,也优于