首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   8717篇
  免费   1836篇
  国内免费   1105篇
电工技术   441篇
技术理论   1篇
综合类   1149篇
化学工业   64篇
金属工艺   44篇
机械仪表   340篇
建筑科学   67篇
矿业工程   42篇
能源动力   30篇
轻工业   47篇
水利工程   32篇
石油天然气   118篇
武器工业   73篇
无线电   4104篇
一般工业技术   444篇
冶金工业   107篇
原子能技术   15篇
自动化技术   4540篇
  2024年   17篇
  2023年   122篇
  2022年   223篇
  2021年   255篇
  2020年   315篇
  2019年   301篇
  2018年   338篇
  2017年   369篇
  2016年   412篇
  2015年   561篇
  2014年   681篇
  2013年   637篇
  2012年   814篇
  2011年   712篇
  2010年   572篇
  2009年   500篇
  2008年   585篇
  2007年   597篇
  2006年   552篇
  2005年   508篇
  2004年   401篇
  2003年   350篇
  2002年   346篇
  2001年   269篇
  2000年   228篇
  1999年   187篇
  1998年   166篇
  1997年   155篇
  1996年   88篇
  1995年   107篇
  1994年   61篇
  1993年   58篇
  1992年   26篇
  1991年   27篇
  1990年   19篇
  1989年   19篇
  1988年   8篇
  1987年   12篇
  1986年   8篇
  1985年   15篇
  1984年   5篇
  1983年   6篇
  1982年   2篇
  1981年   4篇
  1980年   3篇
  1978年   2篇
  1965年   2篇
  1963年   3篇
  1956年   1篇
  1955年   1篇
排序方式: 共有10000条查询结果,搜索用时 15 毫秒
1.
Fast image codecs are a current need in applications that deal with large amounts of images. Graphics Processing Units (GPUs) are suitable processors to speed up most kinds of algorithms, especially when they allow fine-grain parallelism. Bitplane Coding with Parallel Coefficient processing (BPC-PaCo) is a recently proposed algorithm for the core stage of wavelet-based image codecs tailored for the highly parallel architectures of GPUs. This algorithm provides complexity scalability to allow faster execution at the expense of coding efficiency. Its main drawback is that the speedup and loss in image quality is controlled only roughly, resulting in visible distortion at low and medium rates. This paper addresses this issue by integrating techniques of visually lossless coding into BPC-PaCo. The resulting method minimizes the visual distortion introduced in the compressed file, obtaining higher-quality images to a human observer. Experimental results also indicate 12% speedups with respect to BPC-PaCo.  相似文献   
2.
聚类混合型数据,通常是依据样本属性类别的不同分别进行评价。但这种将样本属性划分到不同子空间中分别度量的方式,割裂了样本属性原有的统一性;导致对样本个体的相似性评价产生了非一致的度量偏差。针对这一问题,提出以二进制编码样本属性,再由海明差异对属性编码施行统一度量的新的聚类算法。新算法通过在统一的框架内对混合型数据实施相似性度量,避免了对样本属性的切割,在此基础上又根据不同属性的性质赋予其不同的权重,并以此评价样本个体之间的相似程度。实验结果表明,新算法能够有效地聚类混合型数据;与已有的其他聚类算法相比较,表现出更好的聚类准确率及稳定性。  相似文献   
3.
为了判别电力变压器绕组变形状况,提出一种基于最优漏磁信息及多层聚类编码和最优权重译码的ECOC分类器对变压器绕组变形分类的方法,首先利用多层聚类算法构建最优ECOC编码矩阵,然后通过最优权重译码算法对分类器输出进行译码得出变压器绕组具体变形类别,建立变压器绕组二维漏磁场有限元模型,计算得出绕组可能出现的变形形式和绕组区域变形前后的磁感应强度值数据,从而得出磁感应强度测量点;最后利用所建立模型得出的绕组变形数据进行仿真判别。结果表明,所建立的分类器在绕组变形判别时具有较高的准确性,可用于变压器绕组变形类型的检测。  相似文献   
4.
在计算机系统运行以及研究环节中,会存在大量的规模效应,此类状况难以避免,要想有效解决此类问题,就需要利用分布式的处理方式,开展对文件系统的分析。文章对分布式多维联机分析过程(MOLAP)的数据模型进行了分析,从维编码的算法、映射归约(MapReduce)算法的实现、分析维的遍历算法等方面作深入探讨。  相似文献   
5.
混叠采集技术能极大地提高地震采集效率,但是由于连续激发,混采数据中存在严重的邻炮干扰噪声,而且混采数据规模巨大,这要求后续的信噪分离算法精确、稳定、快速,为此提出一种基于稀疏反演的高效混采数据分离方法。在三维共检波点道集上,首先通过三维快速傅里叶变换,将时空域数据变换到频率-波数-波数域(FKK);然后采用硬阈值函数提取相干信号,利用相干信号预测混叠噪声;最后以数据残差为驱动,不断收缩阈值,迭代更新模型,实现高效混采数据分离。模拟数据和实际数据应用结果表明,本文方法能够精确、稳定、快速地分离高混叠度的地震数据。  相似文献   
6.
传统的基于稀疏表示的目标跟踪方法主要利用目标的灰度特征构建稀疏表示模型。由于灰度特征对光照变化敏感,这会影响目标跟踪在复杂场景下的鲁棒性。基于多源数据融合的目标跟踪可以明显提升目标跟踪鲁棒性,但如何有效融合不同维度,不同类型的多源目标特征成为基于多源数据融合的目标跟踪所要解决的关键问题。提出了一个基于目标状态以及灰度特征的稀疏表示目标跟踪方法。所提出的方法可通过基于核函数表示的稀疏表示模型,在探究目标状态以及灰度特征相关性的基础上,将两种不同维度的特征进行有效融合,提升目标跟踪在复杂场景下的鲁棒性。  相似文献   
7.
According to the circle-packing theorem, the packing efficiency of a hexagonal lattice is higher than an equivalent square tessellation. Consequently, in several contexts, hexagonally sampled images compared to their Cartesian counterparts are better at preserving information content. In this paper, novel mapping techniques alongside the wavelet compression scheme are presented for hexagonal images. Specifically, we introduce two tree-based coding schemes, referred to as SBHex (spirally-mapped branch-coding for hexagonal images) and BBHex (breadth-first block-coding for hexagonal images). Both of these coding schemes respect the geometry of the hexagonal lattice and yield better compression results. Our empirical results show that the proposed algorithms for hexagonal images produce better reconstruction quality at low bits per pixel representations compared to the tree-based coding counterparts for the Cartesian grid.  相似文献   
8.
In this article, we introduce a new bi-directional dual-relay selection strategy with its bit error rate (BER) performance analysis. During the first step of the proposed strategy, two relays out of a set of N relay-nodes are selected in a way to optimize the system performance in terms of BER, based on the suggested algorithm which checks if the selected relays using the max-min criterion are the best ones. In the second step, the chosen relay-nodes perform an orthogonal space-time coding scheme using the two-phase relaying protocol to establish a bi-directional communication between the communicating terminals, leading to a significant improvement in the achievable coding and diversity gain. To further improve the overall system performance, the selected relay-nodes apply also a digital network coding scheme. Furthermore, this paper discusses the analytical approximation of the BER performance of the proposed strategy, where we prove that the analytical results match almost perfectly the simulated ones. Finally, our simulation results show that the proposed strategy outperforms the current state-of-the-art ones.  相似文献   
9.
本文提出一种完备总体经验模态分解(CEEMD)方法与K奇异值分解(KSVD)学习字典算法相结合的地震信号去噪方法。含噪信号通过CEEMD分解得到一系列不同尺度的固有模态函数(IMF);按频率由高到低依次排列IMF各分量,并做自相关分析,去除噪声主导的IMF分量;将累加的过渡IMF分量叠加重构并做CEEMD二次分解,通过自相关分析再次去除噪声主导的IMF分量;分别叠加二次CEEMD分解剩余的IMF分量和一次剩余的IMF分量,得到两个新的含噪信号,并利用KSVD过完备字典分别稀疏表示该两个新的含噪信号,即由稀疏系数重构去噪后地震信号,进而重构最终去噪结果。实验结果证明:该算法的去噪效果明显优于F-X去噪、小波阈值去噪和KSVD字典稀疏去噪等传统方法。  相似文献   
10.
利用层次化分块正交匹配算法(HBW-OOMP)的高稀疏性和运算速度快等优点,提出了一种基于K-奇异值分解(K-SVD)字典和HBW-OOMP算法的故障轴承诊断方法。首先利用K-SVD自学习训练方法得到包含冲击成分的冗余字典,克服了固定结构字典适应性不强的缺点。然后采用基于分块思想的HBW-OOMP算法进行原子的选取和稀疏系数的求解,以重构信号包络谱峭度最大为终止条件,自适应确定分解次数。最后应用所提方法对仿真信号和故障轴承实验信号进行故障特征提取,结果表明该方法能够有效提取强背景噪声下故障特征成分,具有一定的应用前景。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号