搜索筛选:
搜索耗时0.8924秒,为你在为你在102,285,761篇论文里面共找到 10 篇相符的论文内容
类      型:
[期刊论文] 作者:胡鹏昱,, 来源:学园 年份:2014
本文通过对现有高职高专计算机导论课程内容进行分析,结合上海地区对计算机专业人才的培养要求,指出目前课程内容存在的问题。通过对上海地区该课程的地位和作用进行重新定位...
[期刊论文] 作者:胡鹏昱,, 来源:学园 年份:2014
本文以上海农林职业技术学院“基专贯通”课程(计算机应用基础——动物医学专业)建设为例,探讨了计算机应用基础课程传统教学的弊端,提出以专业需求来调整教学内容,以项目化...
[学位论文] 作者:胡鹏昱, 来源:苏州大学 年份:2009
随着Internet技术的飞速发展,整个Web信息已经被各种各样可搜索的在线数据库所深化。这些信息隐藏在Web查询接口之后,由站点后台数据库动态产生,而传统搜索引擎受技术限制无...
[期刊论文] 作者:胡鹏昱, 王晓军,, 来源:计算机应用与软件 年份:2012
大规模地形可视化一直是实时计算机图形学的研究瓶颈,归因于地形数据的海量性与实时计算机图形学的实时性之间的矛盾。基于GeometryClipmap算法提出一个扩展的大规模地形实时...
[期刊论文] 作者:苗忠义,胡鹏昱,崔志明,, 来源:计算机应用研究 年份:2009
为了估计网络数据库的大小,提出了基于Capture-Recapture过滤二字亲密、二字排斥的方法。通过在接口文本框提交属性高频字,利用返回的结果集,在两两之间作交集,根据交集中的两字分布分析采样的独立性,过滤掉其中不独立的情况,再利用Capture-Recapture方法估计网......
[期刊论文] 作者:胡鹏昱,苗忠义,崔志明,方巍, 来源:2008年全国开放式分布与并行计算学术年会 年份:2008
Deep Web中蕴涵了海量的高质量信息.文中从Deep Web数据源的功能属性和非功能属性两个方面对数据源的质量进行度量,建立了一种基于综合模糊评价指标体系的扩展的数据源质量估计模型.实验结果表明该模型得到的数据源质量排序序列和人工排序序列的Kendalls距离较......
[期刊论文] 作者:苗忠义,赵朋朋,胡鹏昱,崔志明, 来源:计算机工程 年份:2009
在同一领域中,不同Web数据库之间有重叠部分,为估计重叠部分在Web数据库中所占比例,提出一种基于属性高频字的重叠率估计方法。以中文高频字作为起点,迭代诱导属性高频字。通过属......
[期刊论文] 作者:胡鹏昱,赵朋朋,方巍,崔志明, 来源:计算机工程 年份:2009
为从海量深网中获得有价值的信息,提出一种深网数据源质量估计模型,综合考虑接口查询能力、接口页面质量和服务质量3方面因素,采用SVM和Ranking SVM机器学习方法得到质量估计函...
[期刊论文] 作者:方巍,胡鹏昱,赵朋朋,崔志明, 来源:微电子学与计算机 年份:2007
为了方便用户快捷高效的使用Deep Web中内容丰富、主题专一的高质量信息,对Deep Web数据源发现研究已成为一个非常迫切的问题。目前通用的方法是基于关键词的主题过滤策略,这样...
[期刊论文] 作者:鲜学丰,方巍,赵朋朋,崔志明,胡鹏昱, 来源:微电子学与计算机 年份:2008
分析了影响Deep Web数据源质量评估的若干因素,提出了一种Deep Web数据源质量评估模型.该模型从浏览器、Web数据库、Web服务器和用户四个方面对数据源进行质量评估.通过在真实的...
相关搜索: