排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
扩展的Deep Web质量估计模型研究 总被引:1,自引:1,他引:0
Deep Web中蕴涵了海量的高质量信息.文中从Deep Web数据源的功能属性和非功能属性两个方面对数据源的质量进行度量,建立了一种基于综合模糊评价指标体系的扩展的数据源质量估计模型.实验结果表明该模型得到的数据源质量排序序列和人工排序序列的Kendall’s距离较扩展前有了很大提高,而且质量估计结果也能使数据源的选择得到较高精确度. 相似文献
2.
一种Deep Web数据源质量评估模型 总被引:3,自引:1,他引:2
分析了影响Deep Web数据源质量评估的若干因素,提出了一种Deep Web数据源质量评估模型.该模型从浏览器、Web数据库、Web服务器和用户四个方面对数据源进行质量评估.通过在真实的Deep Web数据源上进行实验验证,说明该方法是有效和可行的. 相似文献
3.
4.
为了方便用户快捷高效的使用DeepWeb中内容丰富、主题专一的高质量信息,对DeepWeb数据源发现研究已成为一个非常迫切的问题。目前通用的方法是基于关键词的主题过滤策略,这样容易发现一些不相关的数据源,为此提出一种新的基于语义的DeepWeb数据源聚焦爬行方法,利用朴素贝叶斯分类算法自动发现DeepWeb数据源,实验验证了该方法的有效性。 相似文献
5.
大规模地形可视化一直是实时计算机图形学的研究瓶颈,归因于地形数据的海量性与实时计算机图形学的实时性之间的矛盾。基于Geometry Clipmap算法提出一个扩展的大规模地形实时渲染的解决方案,在高效地利用现代图形学硬件的同时,有效地减少批次渲染的三角形面片数量。在使用合适的数据调度算法之后,使无限大小地形的实时漫游成为可能。 相似文献
6.
1