全文获取类型
收费全文 | 9857篇 |
免费 | 2397篇 |
国内免费 | 2267篇 |
专业分类
电工技术 | 940篇 |
技术理论 | 2篇 |
综合类 | 1155篇 |
化学工业 | 263篇 |
金属工艺 | 107篇 |
机械仪表 | 460篇 |
建筑科学 | 156篇 |
矿业工程 | 141篇 |
能源动力 | 152篇 |
轻工业 | 210篇 |
水利工程 | 113篇 |
石油天然气 | 114篇 |
武器工业 | 115篇 |
无线电 | 1501篇 |
一般工业技术 | 440篇 |
冶金工业 | 75篇 |
原子能技术 | 171篇 |
自动化技术 | 8406篇 |
出版年
2024年 | 62篇 |
2023年 | 254篇 |
2022年 | 442篇 |
2021年 | 516篇 |
2020年 | 564篇 |
2019年 | 500篇 |
2018年 | 510篇 |
2017年 | 576篇 |
2016年 | 632篇 |
2015年 | 693篇 |
2014年 | 852篇 |
2013年 | 801篇 |
2012年 | 1046篇 |
2011年 | 1097篇 |
2010年 | 903篇 |
2009年 | 854篇 |
2008年 | 892篇 |
2007年 | 897篇 |
2006年 | 601篇 |
2005年 | 461篇 |
2004年 | 354篇 |
2003年 | 247篇 |
2002年 | 201篇 |
2001年 | 124篇 |
2000年 | 98篇 |
1999年 | 79篇 |
1998年 | 43篇 |
1997年 | 38篇 |
1996年 | 34篇 |
1995年 | 28篇 |
1994年 | 18篇 |
1993年 | 13篇 |
1992年 | 6篇 |
1991年 | 8篇 |
1990年 | 10篇 |
1989年 | 10篇 |
1988年 | 5篇 |
1987年 | 5篇 |
1986年 | 2篇 |
1985年 | 8篇 |
1984年 | 9篇 |
1983年 | 5篇 |
1982年 | 2篇 |
1981年 | 3篇 |
1980年 | 3篇 |
1979年 | 4篇 |
1978年 | 2篇 |
1977年 | 3篇 |
1976年 | 2篇 |
1974年 | 2篇 |
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
51.
针对移动无线传感器网络设计一种不依赖于节点地理位置的基于移动汇聚节点(Sink)的数据收集算法(Mobile Sink-based Data Gathering,MSDG)。该算法解决了无线传感器网络中多跳路由通信时出现能量空洞的"热点"问题。Sink沿途以最近的固定节点作为根节点动态构建路由树。簇内移动节点感知的数据经簇头进行数据融合计算,然后将融合后的数据沿路由树反向逐跳转发给Sink。仿真结果表明,MSDG在节点的平均能耗和网络生存时间等方面的性能远超过LEACH、ACE-L等数据收集协议。 相似文献
52.
53.
OLAM(On-line Analytical Mining)是当前的热点技术,是融合了联机分析处理(OLAP)和数据挖掘(Data Mining)的一种新的数据挖掘技术。本文主要研究数据仓库中OLAP,On-line Analytical Processing和数据挖掘技术,这两个技术是商业智能中的核心技术和主要内容,在两者的基础上引入OLAM的概念,并阐述其基本原理和核心技术。基于微软的SQL Server平台,为一个商业案例建立数据仓库,利用Analysis Services服务,建立销售分析的多维数据集,利用OLAM的基本模型实现OLAP和聚类挖掘技术的结合,借助两者的各自优势,得到很好的客户聚类分析结果。 相似文献
54.
当前混合属性数据发布中隐私保护方法大多存在隐私保护效果不佳或数据效用较差的问题,采用差分隐私与优化的k-prototype聚类方法相结合,提出改进k-prototype聚类的差分隐私混合属性数据发布方法(DCKPDP)。为解决传统k-prototype聚类算法没有考虑不同数值型属性对聚类结果有较大影响的问题,利用信息熵为每个数值型属性添加属性权重;为解决聚类初始中心点人为规定或者由随机算法随机确定,导致聚类结果精确度不高的问题,结合数据对象的局部密度和高密度对聚类过程中初始中心点进行自适应选择;为解决数据信息泄露风险较高的问题,对聚类中心值进行差分隐私保护。实验结果表明,DCKPDP算法满足差分隐私保护所需的噪声量更小,数据的可用性更好。 相似文献
55.
现存非负矩阵分解(non-negative matrix factorization,NMF)研究多考虑单一视图分解数据,忽略了数据信息的全面性。此外,NMF限制其获取数据的内在几何结构。针对以上问题,提出一个结构正则化多视图非负矩阵分解算法(structure regularized multi-view nonnegative matrix factorization,SRMNMF)。首先,通过主成分分析来对数据进行全局结构的判别式学习;其次,利用流形学习来捕获数据的局部结构;然后,通过利用多视图数据的多样性和差异性来学习表征。模型提升了算法聚类的整体性能,更加有效地挖掘数据的结构信息。此外,采用高效的交替迭代算法优化目标函数得到最优的因子矩阵。在六个数据集上与现存的代表性方法比较,所提出的SRMNMF的准确率、NMI和Purity分别最大提高4.4%、6.1%和4.05%。 相似文献
56.
三峡大坝下游河道的冲刷发展影响着长江中下游的防洪、航运及区域经济发展。本文以宜昌至城陵矶河段约400 km长河段为研究对象,基于2002—2018年河道的来水来沙、泥沙粒径和横断面形态观测资料,计算并分析河道垂向冲淤、横向摆动、平滩面积、平滩水深和冲淤量的变化,根据河道平面形态将研究河段划分为32个子河段,对子河段平均平滩面积和平滩水深的变化速率进行分级,引入空间聚类分析方法,对冲刷强度等级最高的河段在时空尺度上分布进行聚类分析,研究河道冲刷重心的时空迁移规律。结果表明,三峡水库运用后下游河道经历了蓄水初期冲刷较强(2003—2007)、175 m正常蓄水运用后冲刷减弱(2008—2012)和上游梯级水库运用后冲刷增强(2013—2018)的三个阶段;空间上,宜昌至枝城及上荆江河段普遍冲刷,以弯曲型为主的下荆江河道以冲为主,但冲淤交替频繁,同时冲淤强度具有随时间衰减的特点;冲刷重心具有向下游迁移的趋势,在三峡水库蓄水初期冲刷重心向下迁移较快,之后减缓,上游梯级水库运用后,冲刷重心下移速率明显加快,之后再次减缓,2003—2018年冲刷重心平均下移速率约7.5 km/a。 相似文献
57.
James E. Corter J. Douglas Carroll 《Annals of Mathematics and Artificial Intelligence》1990,2(1-4):77-92
Theknowledge transfer problem in artificial intelligence consists of finding effective ways to elicit information from a human expert and represent it in a form suitable for use by an expert system. One approach to formalizing and guiding this knowledge transfer process for certain types of expert systems is to use psychometric scaling methods to analyze data on how the human expert compares or groups solutions. For example, Butler and Corter [1] obtained judgments of thesubstitutability of solutions from an expert, then analyzed the resulting data via techniques for fitting trees and extended trees [2]. The expert's interpretation of certain aspects of the solutions were directly encoded as production rules, allowing rapid prototyping. In this paper we consider the problem of combining information from multiple experts. We propose the use of three-way or individual differences multidimensional scaling, tree-fitting, and unfolding models to analyze two types of data obtainable from the multiple experts: judgments of the substitutability of pairs of solutions, and judgments of the appropriateness of specific solutions to specific problems. An application is described in which substitutability data were obtained from three experts and analyzed using the SINDSCAL program [3] for three-way multidimensional scaling [4]. 相似文献
58.
Aman Singh Jaydip Chandrakant Mehta Divya Anand Pinku Nath Babita Pandey Aditya Khamparia 《Expert Systems》2021,38(1)
In real world, the automatic detection of liver disease is a challenging problem among medical practitioners. The intent of this work is to propose an intelligent hybrid approach for the diagnosis of hepatitis disease. The diagnosis is performed with the combination of k‐means clustering and improved ensemble‐driven learning. To avoid clinical experience and to reduce the evaluation time, ensemble learning is deployed, which constructs a set of hypotheses by using multiple learners to solve a liver disease problem. The performance analysis of the proposed integrated hybrid system is compared in terms of accuracy, true positive rate, precision, f‐measure, kappa statistic, mean absolute error, and root mean squared error. Simulation results showed that the enhanced k‐means clustering and improved ensemble learning with enhanced adaptive boosting, bagged decision tree, and J48 decision tree‐based intelligent hybrid approach achieved better prediction outcomes than other existing individual and integrated methods. 相似文献
59.
传感器节点体积微小,通常携带能量十分有限的电池。由于传感器节点个数多,成本要求低廉,分布区域广,而且部署区域环境复杂,有些区域甚至是人员不能到达的,所以传感器节点通过更换电池的方式来补充能量是不现实的。如何高效使用能量来最大化网路的生命周期是无线传感器网络面临的首要挑战。为了提高网络的寿命,目前人们已经提出了很多基于网络层的路由协议。比较研究了传感器网络现有的路由协议,参考LEACH分簇算法和MTP协议,提出了一种在MTP协议基础上将LEACH分簇思想引入进来的改进方法,即在基于能量强度将网络节点分层后,再在各层上进行簇区分,均衡各传感器节点的能量来提高网络的寿命。实验表明该路由算法可提高网络寿命。 相似文献
60.
The kernelized fuzzy c-means algorithm uses kernel methods to improve the clustering performance of the well known fuzzy c-means algorithm by mapping a given dataset into a higher dimensional space non-linearly. Thus, the newly obtained dataset is more likely to be linearly seprable. However, to further improve the clustering performance, an optimization method is required to overcome the drawbacks of the traditional algorithms such as, sensitivity to initialization, trapping into local minima and lack of prior knowledge for optimum paramaters of the kernel functions. In this paper, to overcome these drawbacks, a new clustering method based on kernelized fuzzy c-means algorithm and a recently proposed ant based optimization algorithm, hybrid ant colony optimization for continuous domains, is proposed. The proposed method is applied to a dataset which is obtained from MIT–BIH arrhythmia database. The dataset consists of six types of ECG beats including, Normal Beat (N), Premature Ventricular Contraction (PVC), Fusion of Ventricular and Normal Beat (F), Artrial Premature Beat (A), Right Bundle Branch Block Beat (R) and Fusion of Paced and Normal Beat (f). Four time domain features are extracted for each beat type and training and test sets are formed. After several experiments it is observed that the proposed method outperforms the traditional fuzzy c-means and kernelized fuzzy c-means algorithms. 相似文献