用优化的正则表达式引擎进行快速网络流分类

来源 :小型微型计算机系统 | 被引量 : 0次 | 上传用户:qq447105111
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
依赖于正则表达式匹配的深度包检测技术因准确率高成为网络流分类广泛使用的技术.为了能在线性时间内对网络流进行快速分类,需采用时间高效的确定性有限自动机(DFA)匹配引擎,但DFA存在空间爆炸问题,无法满足实际需求.为了解决这个问题,本文从DFA中每个状态在不同的输入字符转换下到达的目的状态特性出发,提出了一种基于默认目的状态和位图技术的DFA压缩算法(对应的自动机模型称为DBDFA),该算法能够将有着相同目的状态的多条转移边压缩为只需一个默认目的状态或只需一个时空高效的位图.实验表明,DBDFA能达到平均99%的压缩效率,优于目前大多数的DFA压缩技术,且压缩后的总体匹配效率是原有DFA的3~5倍,这是目前大部分的压缩技术所不能达到的. Deep packet inspection, which relies on regular expression matching, has become a widely used technique for network flow classification because of its high accuracy.In order to classify network flows quickly in linear time, a time-efficient deterministic finite automaton (DFA) Matching engine, but there is a space explosion problem in DFA, which can not meet the actual demand.In order to solve this problem, this dissertation starts from the state characteristics of each state in DFA that arrive under different input characters, Bitmap technology DFA compression algorithm (corresponding to the automaton model called DBDFA), the algorithm can be the same destination state of multiple transitions to only one default destination state or only a space-time efficient bitmap. Shows that DBDFA achieves an average compression efficiency of 99%, which is better than most of the current DFA compression techniques, and the overall compression efficiency is 3 to 5 times that of the original DFA, which is currently not achieved by most compression techniques of.
其他文献
提出一种针对大规模RDF(Resource Description Framework)数据的高效而又准确的查询方法,此方法基于图聚类算法.首先利用已被证明在处理大规模图数据时效果最好的图聚类算法对
  在3D设计系统里,依赖图文档模型被广泛的用来表示文档内部图形对象之间的依赖关系.Sun的团队针对由于对象与对象之间的依赖关系的存在所导致的意愿冲突,提出了5种类型的依
随着在线社交网络的快速发展,用户信息和用户规模呈现爆炸性增长,如何从网络上获取有针对性的信息已非易事,为此各种推荐系统已先后涌现.为各类不同用户以自然的推荐方式向其推荐信息并获得较高的用户采纳度是一件富挑战性的工作,也是本文的主要研究内容.如何在特定专业性拓扑网络中寻找到自然的推荐方式以得到较好的用户采纳度,是本文将要解决的问题.基于此,本文采用对潜在角色和关系预测研究,以E-CARGO模型为理论
慢性阻塞性肺疾病(COPD) 是一种不完全可逆的气流受限,呈进行性发展,且可以预防和治疗的疾病,并与肺部对香烟烟雾等有害气体或有害颗粒的异常炎症应有关[1].目前,COPD 是全球
业务流程是组合服务的主要表现形式之一.跨组织多方协作流程往往包含多重粒度,难以基于任何单一粒度建模.Proclets方法将多粒度单体流程分解为一组交互协作的单粒度流程,以实
现有基于可能世界建模的Top-k算法难以适应大数据量和键值对(Key-Value)数据模型下的不确定性Top-k查询.研究首先建立了不确定性Key-Value数据模型;随后在已有U-TopK查询语义的
在Web服务选择中,候选服务的QoS(Quality of Service)优劣起着决定性的作用.如何为具体用户准确预测服务的Qo S值是最近的研究热点.以往的工作聚焦于使用单一值(即点值)来预测Web
采用传统的关联规则方法对关系型数据集进行数据挖掘时,通常以属性为粒度求解属性之间的相关性,未能直观地剖析属性内部的规律和相关性.以细化分析粒度和提高关联规则的fine精度为目标,通过把属性"打碎",再结合基于逻辑的OCAT方法,提出一套细粒度的关联规则数据挖掘方法,同时由于该方法得到的关联规则表达形式的特殊性,使得其能提高处理大规模数据集的运算效率.最后,以一个气象数据集为实例进行实验,对结果的准
闭半环是在半环上添加了传递闭包运算符而得到的代数结构.闭半环为计算机科学理论中多个看起来不相关的问题提供了统一的求解理论框架.有不少图算法问题可以通过对图的邻接矩
推荐有效且高质量的Web服务是Web服务技术应用的关键.由于服务所处的环境动态变化,现有推荐方法推荐的服务常存在不可用的情况. 文中提出了一种服务失效情境下高质量Web