论文部分内容阅读
Internet的快速增长,特别是电子商务应用的发展,使Web应用成为目前最重要、最广泛的应用。网上信息交换量几乎呈指数增长,需要更高性能的Web服务器提供更多用户的Web服务,因此,Web服务器面临着访问量急剧增加的压力,对其处理能力、响应能力等带来更高的要求,如果Web服务器无法满足大量Web访问服务,将无法为用户提供稳定、良好的网络应用服务。 由于客观存在的服务器物理内存、CPU处理速度和操作系统等方面的影响因素,当大量突发的数据到达时,Web服务器无法完全及时处理所有的请求而造成应答滞后、请求丢失等现象,严重时导致一些数据包因延时而重发,使传输线路和服务器的负担再次增加。以前传统的方法是提高Web服务器的CPU处理速度和增加内存容量等硬件办法,但无论如何增加Web服务器硬件性能,均无法满足日益增加的对用户的访问服务能力。 因此,面对日渐增加的Web访问服务要求,必须按照一定策略将Web访问服务分配到多台服务器上,请求处理过程对用户透明,整体上对外如同一台Web服务器为用户提供Web服务。本文从理论和实践两个方面,针对单个Web服务器、局域Web服务器集群这样的体系结构,深入地分析了Web集群系统的QoS控制的模型、策略和性能分析技术。总体来说,本论文主要进行了如下研究: 1、将Web服务器进程调度中所使用的HTTP请求的内容和优先级与Web服务器集群的负载均衡策略相结合,对基于请求内容和优先级的前端请求分配器的三层Web服务器的QoS控制体系结构进行了深入地分析。 2、在基于前端请求分配器的三层Web服务器的QoS控制体系结构及多队列管理模式下,提出了用数据挖掘方式分析请求的方法,并提出了一种改进后的动态负载均衡调度算法,同时对性能分析所使用的性能评价指标进行描述,然后通过实例的数值结果展示了此方法的可行性。 3、最后进行总结,并讨论进一步的研究工作。