首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   157篇
  免费   9篇
  国内免费   14篇
综合类   1篇
化学工业   1篇
无线电   2篇
一般工业技术   1篇
自动化技术   175篇
  2019年   1篇
  2012年   2篇
  2010年   4篇
  2009年   9篇
  2008年   13篇
  2007年   12篇
  2006年   10篇
  2005年   18篇
  2004年   31篇
  2003年   12篇
  2002年   13篇
  2001年   16篇
  2000年   11篇
  1998年   1篇
  1997年   2篇
  1996年   3篇
  1991年   1篇
  1990年   6篇
  1989年   2篇
  1988年   2篇
  1987年   1篇
  1986年   2篇
  1985年   3篇
  1982年   2篇
  1981年   2篇
  1980年   1篇
排序方式: 共有180条查询结果,搜索用时 15 毫秒
1.
Approaches for scaling DBSCAN algorithm to large spatial databases   总被引:7,自引:0,他引:7       下载免费PDF全文
The huge amount of information stored in datablases owned by coporations(e.g.retail,financial,telecom) has spurred a tremendous interest in the area of knowledge discovery and data mining.Clustering.in data mining,is a useful technique for discovering intersting data distributions and patterns in the underlying data,and has many application fields,such as statistical data analysis,pattern recognition,image processsing,and other business application,s Although researchers have been working on clustering algorithms for decades,and a lot of algorithms for clustering have been developed,there is still no efficient algorithm for clustering very large databases and high dimensional data,As an outstanding representative of clustering algorithms,DBSCAN algorithm shows good performance in spatial data clustering.However,for large spatial databases,DBSCAN requires large volume of memory supprot and could incur substatial I/O costs because it operates directly on the entrie database,In this paper,several approaches are proposed to scale DBSCAN algorithm to large spatial databases.To begin with,a fast DBSCAN algorithm is developed.which considerably speeeds up the original DBSCAN algorithm,Then a sampling based DBSCAN algorithm,a partitioning-based DBSCAN algorithm,and a parallel DBSCAN algorithm are introduced consecutively.Following that ,based on the above-proposed algorithms,a synthetic algorithm is also given,Finally,some experimental results are given to demonstrate the effectiveness and efficiency of these algorithms.  相似文献   
2.
基于CORBA—WEB的分布式应用系统开发策略   总被引:18,自引:4,他引:14  
WEB环境是一个极端异构,真正分布的环境,人们越来越认识到将CORBA应用到WEB环境中的必要性。但是,如何将CORBA更好地与WEB结合,却没有统一的方法。经过研究模索,提出了两种途径以达到这一目的,并利用遵循 CORBA2.0标准的 StarBus环境实现了这两种方法。  相似文献   
3.
完全基于结构知识的汉字笔画抽取方法   总被引:17,自引:1,他引:16  
从汉字结构知识出发,提出了一种从汉字图像直接抽取笔画的算法,给出了抽取横、竖、撇、捺4种笔画的完全量化的昨去除不同字体的笔画修饰噪声的规则,该方法较好地解决了各笔画的相交、相连及噪声排队等总理2,综在汉字识别及字体自动生成等汉字信息处理方面有重要作用。  相似文献   
4.
一种基于密度的快速聚类算法   总被引:52,自引:0,他引:52  
聚类是数据挖掘领域中的一个重要研究方向,聚类技术在统计数据分析、模式识别、图像处理等领域有广泛应用,迄今为止人们提出了许多用于大规模数据库的聚类算法。基于密度的聚类算法DBSCAN就是一个典型代表。以DBSCAN为基础,提出了一种基于密度的快速聚类算法。新算法以核心对象领域中所有对象的代表对象为种子对象来扩展类,从而减少区域查询次数,降低I/O开销,实现快速聚类,对二维空间数据测试表明:快速算法能够有效地对大规模数据库进行聚类,速度上数倍于已有DBSCAN算法。  相似文献   
5.
利用CORBA和XML集成通用虚拟数据库   总被引:3,自引:0,他引:3  
本文说明在Internet中建立虚拟数据库的必要性和重要性,通过虚拟图书馆实例介绍了虚拟数据库的工作原理和基本构件,探讨了一个基于OCRBA和XML技术的通用虚拟数据库模型,具体地说明了CORBA和XML在实现通用虚拟数据库中所起的作用。  相似文献   
6.
秦少辉  肖辉  胡运发 《计算机工程与设计》2006,27(8):1327-1329,1332
在文献[1]中提出的基于互关联后继树(IRST)的时间序列特征模式挖掘方法的基础上,加入了时间窗口的概念,以弥补IRST这种原本应用于文本检索中的索引模型在时间序列应用中的不足.对IRST以及挖掘算法做出了改进,弥补了其只能挖掘出紧密衔接特征模式的缺陷.实验结果表明,该方法可以挖掘出更多更具应用价值的特征模式.  相似文献   
7.
一个基于Web资源采样特征的元搜索引擎   总被引:1,自引:0,他引:1  
随着Internet的快速发展,Web信息量急剧增加,Web信息检索也相应地越来越困难.本文提出利用查询采样、Web资源分类等技术,自动创建类似Yahoo!的分类层次资源特征,建立一个树型的Web资源特征检索系统.由于采样时只需采集同类信息的一部分,避免了全部采集带来的大量物力浪费.利用创建的资源特征,在检索时选择需要的资源.然后再利用互操作机制,远程调用该资源的全文索引机制进行检索,提高了检索的查全率和查准率.同时由于要检索的Web资源特征是通过选择相关和抛弃不太相关的Web资源,也提高了查询的效率.  相似文献   
8.
TTFS:一个倾向性文本过滤系统的设计与实现   总被引:3,自引:0,他引:3  
以往文本过滤的研究主要集中于主题性过滤,然而随着网络的发展,倾向性文本过滤在网络信息安全方面的作用越来越大。论文阐述了一个倾向性文本过滤系统TTFS(Tenclency Text Filtering System),能够对具有关于某个主题的特定倾向的文本进行过滤。该系统充分利用了领域知识,采用了语义模式分析等技术,实验表明其查全率和查准率高,速度较快。  相似文献   
9.
通过对表现层的研究,将其划分为网格和主细两种模式,并将表现层上的界面元素归纳9种类型。在此基础上,提出并实现了一个基于模板的数据层到表现层的映射引擎。该引擎提供了数据层到表现层的直接映射能力,保证了界面元素风格的统一性,有效提高了界面构建的效率。  相似文献   
10.
基于密度的kNN文本分类器训练样本裁剪方法   总被引:36,自引:2,他引:36  
随着WWW的迅猛发展,文本分类成为处理和组织大量文档数据的关键技术。kNN方法作为一种简单、有效、非参数的分类方法,在文本分类中得到广泛的应用。但是这种方法计算量大,而且训练样本的分布不均匀会造成分类准确率的下降。针对kNN方法存在的这两个问题,提出了一种基于密度的kNN分类器训练样本裁剪方法,这种方法不仅降低了kNN方法的计算量,而且使训练样本的分布密度趋于均匀,减少了边界点处测试样本的误判。实验结果显示,这种方法具有很好的性能。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号