首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1726篇
  免费   83篇
  国内免费   100篇
电工技术   34篇
综合类   75篇
化学工业   32篇
金属工艺   22篇
机械仪表   35篇
建筑科学   121篇
矿业工程   18篇
能源动力   12篇
轻工业   23篇
水利工程   29篇
石油天然气   32篇
武器工业   5篇
无线电   96篇
一般工业技术   69篇
冶金工业   33篇
原子能技术   7篇
自动化技术   1266篇
  2024年   2篇
  2023年   11篇
  2022年   24篇
  2021年   51篇
  2020年   51篇
  2019年   25篇
  2018年   37篇
  2017年   38篇
  2016年   60篇
  2015年   47篇
  2014年   100篇
  2013年   77篇
  2012年   110篇
  2011年   126篇
  2010年   87篇
  2009年   101篇
  2008年   121篇
  2007年   102篇
  2006年   114篇
  2005年   91篇
  2004年   95篇
  2003年   89篇
  2002年   55篇
  2001年   41篇
  2000年   48篇
  1999年   42篇
  1998年   21篇
  1997年   18篇
  1996年   17篇
  1995年   16篇
  1994年   12篇
  1993年   12篇
  1992年   11篇
  1991年   4篇
  1990年   3篇
  1989年   3篇
  1987年   5篇
  1986年   4篇
  1984年   4篇
  1983年   1篇
  1982年   7篇
  1981年   6篇
  1980年   8篇
  1979年   1篇
  1978年   2篇
  1977年   3篇
  1974年   1篇
  1973年   1篇
  1972年   1篇
  1966年   1篇
排序方式: 共有1909条查询结果,搜索用时 9 毫秒
41.
Binary image representation is essential format for document analysis. In general, different available binarization techniques are implemented for different types of binarization problems. The majority of binarization techniques are complex and are compounded from filters and existing operations. However, the few simple thresholding methods available cannot be applied to many binarization problems. In this paper, we propose a local binarization method based on a simple, novel thresholding method with dynamic and flexible windows. The proposed method is tested on selected samples called the DIBCO 2009 benchmark dataset using specialized evaluation techniques for binarization processes. To evaluate the performance of our proposed method, we compared it with the Niblack, Sauvola and NICK methods. The results of the experiments show that the proposed method adapts well to all types of binarization challenges, can deal with higher numbers of binarization problems and boosts the overall performance of the binarization.  相似文献   
42.
Identifying time periods with a burst of activities related to a topic has been an important problem in analyzing time-stamped documents. In this paper, we propose an approach to extract a hot spot of a given topic in a time-stamped document set. Topics can be basic, containing a simple list of keywords, or complex. Logical relationships such as and, or, and not are used to build complex topics from basic topics. A concept of presence measure of a topic based on fuzzy set theory is introduced to compute the amount of information related to the topic in the document set. Each interval in the time period of the document set is associated with a numeric value which we call the discrepancy score. A high discrepancy score indicates that the documents in the time interval are more focused on the topic than those outside of the time interval. A hot spot of a given topic is defined as a time interval with the highest discrepancy score. We first describe a naive implementation for extracting hot spots. We then construct an algorithm called EHE (Efficient Hot Spot Extraction) using several efficient strategies to improve performance. We also introduce the notion of a topic DAG to facilitate an efficient computation of presence measures of complex topics. The proposed approach is illustrated by several experiments on a subset of the TDT-Pilot Corpus and DBLP conference data set. The experiments show that the proposed EHE algorithm significantly outperforms the naive one, and the extracted hot spots of given topics are meaningful.  相似文献   
43.
Suffix arrays are a key data structure for solving a run of problems on texts and sequences, from data compression and information retrieval to biological sequence analysis and pattern discovery. In their simplest version, they can just be seen as a permutation of the elements in {1,2,…,n}, encoding the sorted sequence of suffixes from a given text of length n, under the lexicographic order. Yet, they are on a par with ubiquitous and sophisticated suffix trees. Over the years, many interesting combinatorial properties have been devised for this special class of permutations: for instance, they can implicitly encode extra information, and they are a well characterized subset of the n! permutations. This paper gives a short tutorial on suffix arrays and their compressed version to explore and review some of their algorithmic features, discussing the space issues related to their usage in text indexing, combinatorial pattern matching, and data compression.  相似文献   
44.
林珣  李志蜀  周勇 《计算机科学》2011,38(11):239-240,263
文本分类是中文信息处理的重要研究领域。给文本分配一个或多个不同的类别,可提高文本检索和存储的处理效率。粗糙集是一种不需要任何先验信息的分类方法,通过对文本分词、过滤掉停用词之后把剩余的词语作为特征项,然后把文本用向量空间模型表示出来,将文本集转化成不带决策属性的信息系统,用粗糙集理论中核心内容属性约简实现对文本的分类。实验表明,该方法的查准率和查全率都有所提高。  相似文献   
45.
论文介绍了文本分类技术的研究进展及发展方向,给出了中英文文本分类系统构建的一般模型和过程,分析总结了中英文文本分类过程中的异同,并介绍了针对这些异同因素常用的处理方法。  相似文献   
46.
基于概念扩充的中文文本过滤模型   总被引:8,自引:0,他引:8  
1 前言今天,以因特网为主体的信息高速公路仍在不断普及和发展,因特网上蕴涵的海量信息远远超过人们的想象,面对这样的信息汪洋大海,人们往往感到束手无策,无所适从,出现所谓的“信息过载”问题。如何帮助人们有效地选择和利用所感兴趣的信息,同时保证人们在信息选择方面的个人隐私权利?这已成为学术界和企业界所十分关注的焦点。因此,信息过滤技术应  相似文献   
47.
基于概念的中文文本可视化表示机制   总被引:1,自引:0,他引:1  
为了浏览因特网上日益增多的在线中文文本,本文给出了基于概念的中文文本可视化表示机制,以直观的方式组织和表示文本及文本集,其基本思想是:首先在概念扩充的基础上,进行文本分类,然后,利用本文提出的提出的文本特征抽取方法和摘要方法,获取广西类别、广西、广西正文的标记的信息,通过类别,文本、有选择地浏览文本。  相似文献   
48.
一个多Agent系统模型   总被引:5,自引:0,他引:5  
一个Agent的知识和问题求解能力是有限的,为更好的服务于用户,必须与其它Agent全作,Agetnt寻找合作伙伴是问题求解的关键。本文结构N.R.Jennings等人的工作给出了一种系统模型,任务减少了通开锁,自适应单元增强了Aegnt对外界变化的自适应能力,Agent个性倾向性使模型更合理,排除了冲突因素,提高了2求解的效率。  相似文献   
49.
50.
Web文本特征选择算法的研究   总被引:1,自引:1,他引:0  
以向量空间模型作为Web文本的表示方法,结合Web文本的结构特征对向量空间模型中的特征选择算法进行了分析并加以改进。在改进的算法中,体现出了特征词在Web文档结构中的位置信息;引入了信息论中熵的概念,用词的熵函数对权值进行调整,从而更加准确地选取有效的特征词。实验验证了改进算法的可行性和有效性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号