论文部分内容阅读
当前置信传播(Belief Propagation,BP)算法在LDPC和压缩感知(CompressiveSensing,CS)理论中得到了有效应用,CS理论尽管能够在较少的测量数的情况下做到精确的重建原始数据,但是由于测量矩阵和测量值的非{0,1}性使得CS中BP算法的复杂度较高,不利于实际的工程实现甚至是仿真分析。随着图形处理器的快速发展以及CUDA平台的推出,使得GPU通用计算更加方便,而GPU的并行处理能力正好符合BP算法节点并行性的特点,因此使用GPU实现CS中BP算法的仿真将在一定程度上压缩算法的仿真周期。论文首先介绍了BP算法的基本理论及其在LDPC和CS中的具体应用,并给出了LDPC和CS中相关的算法流程,提出了CS中BP算法的改进方法,包括通过对测量矩阵的消环处理使得消息的计算更加准确,通过前后两次迭代得到的消息进行综合以加快算法的收敛,仿真表明消环后的测量矩阵能提高算法的数据恢复率,将消息进行综合的方式也可以在一定程度上减少算法的迭代次数。其次介绍了基于CUDA的GPU编程,并阐述了GPU编程的内部线程模型的设置原理。最后介绍了LDPC基于CUDA的GPU的实现方法,从而自行设计了CS中BP算法基于CUDA的GPU的实现框架,并给出了算法中节点并行运算的线程设置,仿真实现了算法在CUDA上的运行,结果表明在数据恢复率相当的情况下基于CUDA的GPU实现比CPU实现具有更高的吞吐率。