云计算中基于Session和内容等级的数据库请求分类算法

来源 :2012全国高性能计算学术年会 | 被引量 : 0次 | 上传用户:peterpan984
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
  云计算是当今世界IT行业的研究热点,在云计算实例中存在各种各样的用户对于数据库的请求,并且这些请求是海量的,如果不对这些数据库请求进行合理的分类,必然会对系统的性能造成很大的影响,如何对这些请求进行分类,以达到Web QoS的标准,是云计算研究的一大难点和关键点。原来基于先来先服务的请求模式,不仅不能满足客户优先级的要求,不能达到利益的最大化,而且不能使得服务资源得到充分利用。因此,本研究提出了基于Session和内容等级的数据库请求分类算法,该算法提出了基于Session和内容等级的性能函数,充分考虑了客户的优先级,使得优先级高的客户的请求优先得到服务资源,而对于优先级较低的请求,由于在算法中加入了时间函数,其优先级会随着等待时间的加长而变成优先级较高请求,从而也会得到处理,不至于无限期的等待。因此,该算法既保证了优先级高的请求优先得到处理,又保证了优先级低的请求不至于由于优先级较低而得不到处理,是一种动态的数据库自适应的数据库请求分类。
其他文献
云计算是一种新型的计算模式,它将因特网上的数据、应用作为服务通过网络提供给用户。同时,云计算也是一种新的基础架构管理方法。它能够把大量高度虚拟化的资源组成一个庞大的资源池,统一管理。提供基础设施即服务。如何有效地管理虚拟资源,最大化使用率已成为当前云计算研究的热点。针对这一问题,本文总结了云计算平台(CCP,Cloud Computing Platform)的基础架构,讨论了几种流行CCP的系统架
深度包检测(Deep Pacekt Inspcetion,DPI)是网络入侵检测与防御系统(Network Intruison Detcetion and Prevention System,NIDS/NIPS)中的关键技术,如何快速而又准确的识别有威胁的网络安全事件成为近年来的研究热点,本文提出了一种基于CPU+GPU异构平台下的深度包检测系统,充分利用GPU的高性能的并行计算能力和高存储器带宽
All_to_All 操作是一种重要的集合操作。本文通过实验研究了两种典型的All_to_All 算法在Infibinband 网络中的性能,发现这些算法在传输大消息时带宽利用率仅有30%-70%。分析发现这是由于网络中产生了严重的拥塞造成的。本文尝试通过将大消息拆分成小消息、调度小消息的发送来减少网络拥塞。实验结果表明该优化算法的带宽利用率可以达到80%。
本文首先介绍了Kirchhoff 叠前时间偏移的原理,然后描述了该方法的物理实现过程。由于方法本身计算量巨大所以要加强该方法的并行算法研究,文中详细介绍了输入道并行方法、输出道并行方法和共炮检距并行方法,以地震数据网络流量和传输速率为关键因素衡量三种方法的优缺点,并指出共炮检距并行方法代表该领域发展的方向,最后用一些实际应用数据对三种方法进行了综合评价。
GPU由于其计算能力高达数TFLOPS,被高性能计算领域用于加速并行运算.然而,GPU较低的峰值性能利用率和功耗效率,已经成为了系统性能进一步提升的瓶颈.为了解决这个问题,开始研究将TFLOPS级的DSP用于通用高性能计算领域.为了高效支撑通用高性能计算,本文提出了TFLOPS DSP的结构框架,并通过映射GotoBLAS库到该结构上,建立了GEMM在该结构上的性能模型.研究了影响GEMM效率的主
本文提出了在MPI并行程序中使用三值光学计算机(TOC)的技术.在这个技术中,TOC节点作为服务端,运行等待连接的进程:CPU上运行的MPI进程作为客户端,使用有SHDX前缀的一类扩充指令来请求同TOC的连接.TOC和CPU连接之后,MPI进程将运算请求和数据在一次通信中发送给TOC节点,TOC发挥自身特长来处理数据.并将计算结果回送MPI进程.这个过程实现了TOC与CPU的协同工作.实验表明了该
集成电路进入到纳米时代,微处理器的软错误问题越来越严重。地面应用的商用微处理器难以像工作在恶劣环境中的系统那样采取激进的保护措施,需要在性能,功耗和可靠性之间取得平衡。新出现的3D集成电路具有芯片间屏蔽效应,能够降低内层电路的软错误率。本文分析了微处理器软错误率,基于3D集成技术,将微处理器的不同功能部件放置在受软错误影响较小的内层电路,以此来降低芯片整体的软错误率;通过量化分析可知,对于四种基于
超级计算在“高、精、尖”的前沿科学、工程研究之中广泛应用。但由于我国超算中心大多采用“地方政府投资、以市场为导向开展应用”的建设思路,与国际知名超算中心的运作模式相比,我国超算中心的应用领域范围和应用模式具有很大差异,核心应用导向往往不是高端的计算密集型应用,而是常常追求服务密集型应用。本文初步探讨了国内超算中心核心应用所面临的挑战,提出了超算中心核心应用服务地方建设的几点建议。
光线跟踪(RayTracing),也称为光迹追踪,是计算机图形学的核心算法之一,用于从三维场景生成逼真的二维图像.追踪光线是计算密集型操作,同时二维图像的每个像素需要投射一条甚至多条光线与场景求交,导致光线追踪计算量大效率低.对于大型场景的高精度成像问题情况变得更加糟糕.本文针对大型场景的高精度光线追踪成像耗时大效率低的问题,提出了一种分布式并行渲染的光线追踪算法.在32个CPU核上最高取得了30
NoSQL数据库作为下一代巨型数据的存储模式,在科学计算和商业计算领域均发挥着重要作用,受到当前学术界和企业界的广泛关注,本文提出一种新的基于NoSQL数据库HBase的并行求取最短路径树的方法,首先利用Watts-Strogatz模型完成对巨型网络的数学建模,这种建模方式使得网络模型具有一定的聚类效果:其次利用HBase最近发布的coprocessor对并行BSF方法的简化和改进,简化并行BFS