基于APU的内存键值缓存系统

来源 :电子技术 | 被引量 : 0次 | 上传用户:firefly0808
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
内存键值缓存系统广泛应用于当今的互联网服务系统中,通过保存最有可能被访问的键值对象来加速查询。目前的内存键值缓存系统均使用独立的GPU来提高系统性能,然而CPU和GPU之间的PCIe传输开销阻碍了CPU与GPU进行细粒度协作的可能,导致系统计算资源得不到充分利用。本文利用耦合CPU-GPU架构的新型处理器APU中CPU和GPU共享系统内存的特性,提出在CPU和GPU之间进行细粒度的任务划分来充分发挥各自的计算优势,并首次在这种架构的处理器上实现了一个内存键值缓存系统。该系统针对内存键值缓存系统的任务特点对CPU和GPU的细粒度协作进行了探索,并解决了共享内存模型下CPU与GPU的数据访问冲突。实验表明,在以读请求为主的工作负载下该系统的性能均优于已有的内存键值系统。 Memory key caching systems are widely used in today’s Internet service systems to speed up queries by saving key-value objects that are most likely to be accessed. Current memory key caching systems all use independent GPUs to improve system performance. However, the PCIe overhead between CPU and GPU hinders the fine-grained cooperation between the CPU and the GPU, resulting in underutilized system computing resources. In this paper, we use CPU and GPU to share the system memory in a new processor APU coupled with CPU-GPU architecture. We propose a fine-grained task partitioning between CPU and GPU to give full play to their respective computing advantages, and for the first time in this architecture A memory key cache system is implemented on the processor. The system explores fine-grained cooperation between the CPU and the GPU for the task characteristics of the memory key-value cache system and resolves the data access conflicts between the CPU and the GPU in the shared memory model. Experiments show that the performance of the system is better than the existing memory key system under the workload of read request.
其他文献
作为对儿童的第一手启蒙材料,儿童文学对儿童的成长起着至关重要的作用。然而,中国的儿童文学译作总体质量不高,翻译理论研究远远滞后于翻译实践。因此儿童文学翻译急需系统
期刊
多模态话语是指由语言和非语言模态的手段和符号实现交际功能的语篇。语言模态包括书面语和口头语,非语言模态包括图像、声音、气味等。随着现代科学技术的发展,语言模态已经不
通过对视频点播中的用户行为进行研究,可以改善系统性能和用户观看体验。视频流行度是视频点播系统用户行为的主要特征,本文采用广延指数模型和漂移幂律模型对其进行建模,通
学位
就当今驾驶员边开车边打电话的所带来的严重后果[],提出了基于行车安全的“易通话”手机平台。该系统利用手机android平台和手机GPS,蓝牙4.0的等功能,实现有选择性的通讯,具有方