论文部分内容阅读
网络信息资源的共享是信息社会的重要标志之一,搜索引擎是用户在Internet上检索信息的主要工具,随着搜索引擎技术的发展,智能化及专业化已成为学术界及计算机工业界的研究热点。Robot其实是一个计算机程序,也叫做Spider、WebCrawler或WebWanderer,它能自动访问Web站点,提取站点上的网页,对其进行分析处理,并根据网页中的链接进一步提取其它网页,或转移到其它站点上直至搜索完整个Internet,这个过程是自动的,不需要人工干预。
针对目前通用搜索引擎存在的搜索结果冗余信息过多,搜索结果单一,相关性小的缺点,本论文首先介绍其用Java技术实现的Robot基本原理,然后提出了一个基于Robot的农业信息搜索引擎的设计模型。在该设计模型中,采用专业站点数据库解决通用搜索引擎搜索范围过大,用专业词汇数据库、例外词汇数据库及条件优先度来进一步提高搜索结果相关性,并提出了提高搜索引擎运行速度/效率的解决办法。