论文部分内容阅读
随着科学技术的发展与进步,人类面对的信息和数据量也越来越庞大。为了充分利用日益增大的数据量,开发出配套的高效算法尤为重要。现今,许多科技工作者在自己的研究领域提出了一些复杂的数学模型,而这些模型最后往往归结到求解大型方程组,GPU并行计算能很好地解决这一难题。随着并行技术的发展,GPU架构也在不断更新,也让并行计算编程变得越来越简单,这给相关软件开发人员带来了福音,这也极大的促进工业上并行计算相关产业的高速发展。本文主要围绕地形表面快速建模,地形三角形网格模型顶点法矢量插值以及自回归图像插值算法来进行GPU的优化研究。本文研究的三个问题,均面临着数据量大,算法复杂度高的难题,但是它们的算法内部耦合度低,非常适合并行优化。因此,本文利用GPU强大的计算能力对上述三个问题进行了大量的并行优化,大大提升了它们的执行效率,本文的主要研究内容如下:(1)为了解决地形三角形网格模型数据量大的难题,我们在GTX680平台上提出了基于CUDA-OpenGL的三维地形实时绘制方法,并基于CUDA平台做了大量优化工作。通过最终努力,与Intel Corei7-930 CPU上的单线程串行程序相比,我们在GTX680上的渲染绘制加速比达到了212.3倍,具有非常好的实时性。(2)本文将数字图像处理领域里的边缘插值算法应用于地形网格模型,提出了一种基于边缘的顶点法矢量并行插值算法,该算法尤其适合于复杂,细节变化明显的区域。本文通过一系列CUDA优化策略对该算法进行并行加速,试验结果表明,本文在求地形三角形网格模型顶点法矢量时,与传统的平均加权算法相比精度有了大幅提升,同时,与Intel Corei7-930 CPU上的单线程串行程序相比,本文加速比达到646.4x倍。(3)基于自回归的图像插值算法不管是在峰值信噪比还是在主观视觉效果上相比于传统各类插值算法都具有非常明显的优势,但由于其时间复杂度高的原因,该类算法很难应用于工业中。本文提出的基于GPU的图像自回归插值算法中,我们修改了像素训练窗,使其更适合于并行计算,同时,我们对其中的矩阵运算做了大量数学优化。经过最终的多GPU优化之后,在保持较高的PSNR和视觉效果的同时,本文算法相比于单线程CPU(Intel(R)Core(TM)i7-920)程序,对Lena图,我们取得了147.3倍的加速比;同时,我们也对视频做了实验,对720p的视频,我们获得了174.8倍的加速比。