排序方式: 共有110条查询结果,搜索用时 15 毫秒
101.
102.
基于平均检索精度的图像特征融合方法 总被引:1,自引:0,他引:1
在基于内容的图像检索中,不同图像特征反映了图像不同侧面的内在特性,如何有效地组织和利用这些特征从而提高系统的检索性能是一个值得研究的课题.首先提出了特征互补率的定义,通过计算互补矩阵有指导地选择融合特征集.实验结果表明,互补矩阵能够很好地估计特征之间的补充能力.同时提出了基于平均检索精度的特征线性融合方法,并在一个包含12000张异质图像的大型图像库上与当前图像检索中最常用的几种方法进行了对比实验,结果表明这种方法具有更高的精度. 相似文献
103.
104.
105.
故障诊断系统中深浅知识集成表示方法的研究 总被引:11,自引:0,他引:11
传统的故障智能诊断系统大都只是基于专家经验,但是,由于现代设备的复杂性,使其往得不到准确的结果,这时必须借助于与诊断对象有关的原理性知识,本文基于设备的层次性理论,提出了一种深浅知识集成表示模型,并采用面向对象表示和产生式规则相结合的方法予以实现,深浅知识的有效结合,不仅可以提高故障诊断的准确性,而且诊断推理的效率也得以提高。 相似文献
106.
107.
一种提高中文搜索引擎检索质量的HTML解析方法 总被引:15,自引:1,他引:15
中文搜索引擎经常会返回大量的无关项或者不含具体信息的间接项,产生这类问题的一个原因是网页中存在着大量与主题无关的文字。对使用关键字检索方法的搜索引擎来说,想在检索或者后处理阶段解决这类问题不仅要付出一定代价,而且在大多数情况下是不可能的。在这篇论文中,我们提出了网页噪声的概念,并针对中文网页的特点,实现了一种对网页自动分块并去噪的HTML解析方法,从而达到在预处理阶段消除潜在无关项和间接项的目的。实验结果表明,该方法能够在不占用查询时间的前提下100%地消除中文搜索引擎隐藏的间接项,以及大约11%的无法过滤或隐藏的无关项或间接项,从而大幅度提高检索结果的查准率。 相似文献
108.
109.
网络信息的爆炸式增长,使得当前任何搜索引擎都只可能索引到Web上一小部分数据,而其中又充斥着大量的低质量信息.如何在用户查询无关的条件下找到Web上高质量的关键资源,是Web信息检索面临的挑战.基于大规模网页统计的方法发现,多种网页非内容特征可以用于关键资源页面的定位,利用决策树学习方法对这些特征进行综合,即可以实现用户查询无关的关键资源页面定位.在文本信息检索会议(TREC)标准评测平台上进行的超过19G文本数据规模的实验表明,这种定位方法能够利用20%左右的页面覆盖超过70%的Web关键信息;在仅为全部页面24%的关键资源集合上的检索结果,比在整个页面集合上的检索有超过60%的性能提高.这说明使用较少的索引量获取较高的检索性能是完全可能的. 相似文献
110.
基于Web-Log Mining的Web文档聚类 总被引:22,自引:0,他引:22
速度和效果是聚类算法面临的两大问题.DBSCAN(density based spatial clustering of applications with noise)是典型的基于密度的一种聚类方法,对于大型数据库的聚类实验显示了它在速度上的优越性.提出了一种基于密度的递归聚类算法(recursive density based clustering algorithm,简称RDBC),此算法可以智能地、动态地修改其密度参数.RDBC是基于DBSCAN的一种改进算法,其运算复杂度和DBSCAN相同.通过在Web文档上的聚类实验,结果表明,RDBC不但保留了DBSCAN高速度的优点,而且聚类效果大大优于DBSCAN. 相似文献