首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   14323篇
  免费   2122篇
  国内免费   1000篇
电工技术   1109篇
技术理论   1篇
综合类   876篇
化学工业   1774篇
金属工艺   1162篇
机械仪表   957篇
建筑科学   684篇
矿业工程   219篇
能源动力   393篇
轻工业   328篇
水利工程   104篇
石油天然气   304篇
武器工业   108篇
无线电   1638篇
一般工业技术   1588篇
冶金工业   488篇
原子能技术   104篇
自动化技术   5608篇
  2024年   46篇
  2023年   186篇
  2022年   253篇
  2021年   321篇
  2020年   441篇
  2019年   545篇
  2018年   504篇
  2017年   631篇
  2016年   703篇
  2015年   762篇
  2014年   895篇
  2013年   881篇
  2012年   883篇
  2011年   971篇
  2010年   745篇
  2009年   755篇
  2008年   786篇
  2007年   933篇
  2006年   835篇
  2005年   786篇
  2004年   645篇
  2003年   652篇
  2002年   661篇
  2001年   660篇
  2000年   479篇
  1999年   385篇
  1998年   295篇
  1997年   207篇
  1996年   152篇
  1995年   112篇
  1994年   85篇
  1993年   64篇
  1992年   49篇
  1991年   26篇
  1990年   25篇
  1989年   22篇
  1988年   22篇
  1987年   4篇
  1986年   10篇
  1985年   4篇
  1984年   5篇
  1983年   3篇
  1981年   2篇
  1980年   4篇
  1978年   1篇
  1977年   1篇
  1975年   3篇
  1974年   1篇
  1958年   1篇
  1951年   1篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
101.
In this paper, sampled-data based average-consensus control is considered for networks consisting of continuous-time first-order integrator agents in a noisy distributed communication environment. The impact of the sampling size and the number of network nodes on the system performances is analyzed. The control input of each agent can only use information measured at the sampling instants from its neighborhood rather than the complete continuous process, and the measurements of its neighbors’ states are corrupted by random noises. By probability limit theory and the property of graph Laplacian matrix, it is shown that for a connected network, the static mean square error between the individual state and the average of the initial states of all agents can be made arbitrarily small, provided the sampling size is sufficiently small. Furthermore, by properly choosing the consensus gains, almost sure consensus can be achieved. It is worth pointing out that an uncertainty principle of Gaussian networks is obtained, which implies that in the case of white Gaussian noises, no matter what the sampling size is, the product of the steady-state and transient performance indices is always equal to or larger than a constant depending on the noise intensity, network topology and the number of network nodes.  相似文献   
102.
直接体绘制技术是可视化研究领域的一个重要分支,是目前最活跃的可视化技术之一。该文首先介绍了体绘制技术的原理,分析其实现的关键技术及算法。然后介绍了可视化工具VTK,及其对光线投射算法的实现过程。  相似文献   
103.
基于工作过程的软件开发项目课程建设是一个探索中前行的过程,该文针对目前该项目课程实施效果不太理想的状况,对学习领域和学习情境的构建和设计进行分析研究,提出了改进措施。  相似文献   
104.
名物化复合词的识别是汉语复合词识别中的难点.困难之处在于汉语动词和名词共现时既可以构成动词短语也可以构成名物化复合词.传统的汉语复合词识别往往只使用语料统计特征,效果往往不怎么理想.基于最大熵模型,在基准上下文特征的基础上,采用了词汇特征与Web特征对动词和名词共现时的名物化候选进行判定,取得了较好的实验结果.其中,Precision达到了86.31%,Recall达到了70.00%.  相似文献   
105.
SVM+BiHMM:基于统计方法的元数据抽取混合模型   总被引:3,自引:0,他引:3  
张铭  银平  邓志鸿  杨冬青 《软件学报》2008,19(2):358-368
提出了一种SVM BiHMM的混合元数据自动抽取方法.该方法基于SVM(support vector machine)和二元HMM(bigram HMM(hidden Markov model),简称BiHMM)理论.二元HMM模型BiHMM在保持模型结构不变的前提下,通过区分首发概率和状态内部发射概率,修改了HMM发射概率计算模型.在SVM BiHMM复合模型中,首先根据规则把论文粗分为论文头、正文以及引文部分,然后建立SVM模型把文本块划分为元数据子类,接着采用Sigmoid双弯曲函数把SVM分类结果用于拟合调整BiHMM模型的单词发射概率,最后用复合模型进行元数据抽取.SVM方法有效考虑了块间联系,BiHMM模型充分考虑了单词在状态内部的位置信息,二者的元数据抽取结果得到了很好的互补和修正,实验评测结果表明,SVM BiHMM算法的抽取效果优于其他方法.  相似文献   
106.
真实场景的视频目标检测需要消除阴影、反射和鬼影等噪声的影响,以检测出运动目标和静止目标.为了实现系统性的视频目标检测,提出一种自适应圆锥裁剪联通块(TC-BLOB)榆测方法.基于BLOB知识,将3D颜色空间变换为"夹角-模差"2D空间后,定义一套圆锥裁剪规则划分出阴影BLOB和反射BLOB;再以一种持久化记忆PM方法判别出鬼影BLOB;最后改进双背景模型检测出静止目标和运动目标.采用不同环境视频进行实验的结果表明,文中方法足有效的,并有独立于后续跟踪的优点.  相似文献   
107.
视频监控是大型安防工作中最重要的一个环节,传统的视频监控系统展示给用户的只是独立的二维平面图像,图像脱离环境,整体性不足,为了解决该问题,提出了将视频图像渲染显示于三维模型的思路.研究了纹理映射技术并结合视频图像渲染的特殊性分析研究了Z缓冲算法、Shadow map算法,根据实际应用提出Extend Shadow map算法以实现将视频图像与三维场景无缝贴合.实验结果表明,视频图像渲染显示于三维模型中所体现的优越性.  相似文献   
108.
顾勋梅  虞慧群 《计算机应用》2009,29(11):3107-3109
功能规模度量(FSM)方法通过量化用户功能需求(FUR)而得到软件功能规模。针对不同的功能规模度量方法都是使用不同的抽象来描述一个软件系统的问题,提出了一种通用的FSM模型。根据软件系统的抽象模型,首先对度量所涉及的数据组和事务进行了泛化,然后以IFPUG FPA为例详细说明了该通用模型和FPA之间的转换过程,最后给出了度量过程的算法描述。  相似文献   
109.
When clusters with different densities and noise lie in a spatial point set, the major obstacle to classifying these data is the determination of the thresholds for classification, which may form a series of bins for allocating each point to different clusters. Much of the previous work has adopted a model-based approach, but is either incapable of estimating the thresholds in an automatic way, or limited to only two point processes, i.e. noise and clusters with the same density. In this paper, we present a new density-based cluster method (DECODE), in which a spatial data set is presumed to consist of different point processes and clusters with different densities belong to different point processes. DECODE is based upon a reversible jump Markov Chain Monte Carlo (MCMC) strategy and divided into three steps. The first step is to map each point in the data to its mth nearest distance, which is referred to as the distance between a point and its mth nearest neighbor. In the second step, classification thresholds are determined via a reversible jump MCMC strategy. In the third step, clusters are formed by spatially connecting the points whose mth nearest distances fall into a particular bin defined by the thresholds. Four experiments, including two simulated data sets and two seismic data sets, are used to evaluate the algorithm. Results on simulated data show that our approach is capable of discovering the clusters automatically. Results on seismic data suggest that the clustered earthquakes, identified by DECODE, either imply the epicenters of forthcoming strong earthquakes or indicate the areas with the most intensive seismicity, this is consistent with the tectonic states and estimated stress distribution in the associated areas. The comparison between DECODE and other state-of-the-art methods, such as DBSCAN, OPTICS and Wavelet Cluster, illustrates the contribution of our approach: although DECODE can be computationally expensive, it is capable of identifying the number of point processes and simultaneously estimating the classification thresholds with little prior knowledge.  相似文献   
110.
Collaborative business process can become unreliable when business partners collaborate in a peer- based fashion without central control. Therefore, reliability checking becomes an important issue that needs to be dealt with for any generic solution in managing business collaboration. In this paper, we propose a novel Choreographical Business Transaction Net (CoBTx-Net) to model collaborative business process and to manage the collaboration by individual participants. Furthermore three reliability properties named Time-embedded dead marking freeness, Inter-organizational dead marking freeness, and Collaborative soundness are defined based on CoBTx-Net to verify (1) the violation of time constraint, (2) collaborative logic conflicts, and (3) the improper termination from individual organizations.
Lai XuEmail:
  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号