论文部分内容阅读
传统互联网逐渐暴露出其原始设计中诸多弊端,且这些弊端无法通过打“补丁”的方式得以克服。近年来世界各国均将未来互联网体系架构设计作为信息网络领域最重要和最迫切的研究内容之一,以图从根本上解决传统互联网面临的各种主要严重问题。北京交通大学下一代互联网互联设备国家工程实验室提出的智慧协同网络体系架构,在克服传统互联网面临的安全性、可扩展性和移动性等问题的基础上,能够大幅提高网络资源利用率、降低网络损耗并提高用户体验。智慧协同网络体系架构要求部署无处不在的缓存(In-network caching),将其作为架构中不可或缺的重要元素之一,以有效减小网络流量和降低服务获取时延,提高用户体验。本文在深入探讨已有缓存机制与算法的基础上,以提高缓存命中率、控制缓存通告开销以及提高缓存收益的角度,设计新型缓存机制与算法。本文的主要工作和创新点如下:1.给出了一种缓存机制分类方法,将已有的缓存机制划分为多个类别,明确了不同缓存机制类别采用的存储和查询策略,并指出了已有缓存机制的优势与不足,为后续缓存机制研究提供了依据和方向。2.以提高缓存命中率为优化目标,提出了一种基于概率缓存的隐式协作缓存机制。该隐式协作缓存机制的核心思想是:网络中每个内容路由器根据其拓扑位置来决定各自的缓存概率,并以此缓存概率决定是否缓存转发的DATA包。数值分析和仿真实验结果表明该缓存机制能够提高缓存命中率,减小缓存命中距离,并具有良好的可扩展性。3.以控制缓存通告开销为优化目标,提出了一种基于最小k中心缓存算法的显式协作缓存机制。该显式协作缓存机制的核心思想是:网络管理者自由地决定一个DATA包在网络中的缓存副本数量,提高缓存效率并且控制缓存通告开销。仿真实验结果表明该缓存机制能够显著提高缓存命中率并且控制缓存通告开销,实现缓存效率和缓存机制可扩展性之间性能均衡。4.以提高缓存收益为优化目标,提出了一种基于缓存收益的显式协作缓存机制。该缓存机制的核心思想是:将减小上游链路时延作为缓存收益,建立基于缓存条目表的查询策略、基于请求路径的存储策略和基于缓存收益的替换策略。仿真实验结果表明该显式协作缓存机制能够提高缓存命中率和降低错误命中率,更重要的是,能够显著减小用户获取服务内容的平均访问时延。