首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   20909篇
  免费   2824篇
  国内免费   1800篇
电工技术   1621篇
综合类   2132篇
化学工业   1709篇
金属工艺   1088篇
机械仪表   1254篇
建筑科学   2708篇
矿业工程   578篇
能源动力   801篇
轻工业   609篇
水利工程   570篇
石油天然气   1037篇
武器工业   568篇
无线电   2995篇
一般工业技术   3019篇
冶金工业   626篇
原子能技术   326篇
自动化技术   3892篇
  2024年   100篇
  2023年   320篇
  2022年   592篇
  2021年   711篇
  2020年   820篇
  2019年   695篇
  2018年   714篇
  2017年   820篇
  2016年   906篇
  2015年   934篇
  2014年   1330篇
  2013年   1459篇
  2012年   1454篇
  2011年   1639篇
  2010年   1218篇
  2009年   1249篇
  2008年   1268篇
  2007年   1456篇
  2006年   1356篇
  2005年   1128篇
  2004年   948篇
  2003年   728篇
  2002年   623篇
  2001年   515篇
  2000年   457篇
  1999年   354篇
  1998年   334篇
  1997年   291篇
  1996年   216篇
  1995年   174篇
  1994年   158篇
  1993年   96篇
  1992年   88篇
  1991年   75篇
  1990年   65篇
  1989年   50篇
  1988年   35篇
  1987年   30篇
  1986年   14篇
  1985年   14篇
  1984年   11篇
  1983年   9篇
  1982年   15篇
  1981年   6篇
  1980年   14篇
  1978年   6篇
  1977年   5篇
  1966年   4篇
  1963年   4篇
  1959年   5篇
排序方式: 共有10000条查询结果,搜索用时 8 毫秒
61.
In this paper we present a new radiosity algorithm, based on the notion of a well distributed ray set (WDRS). A WDRS is a set of rays, connecting mutually visible points and patches, that forms an approximate representation of the radiosity operator and the radiosity distribution. We propose an algorithm that constructs an optimal WDRS for a given accuracy and mesh. The construction is based on discrete importance sampling as in previously proposed stochastic radiosity algorithms, and on quasi Monte Carlo sampling. Quasi Monte Carlo sampling leads to faster convergence rates and the fact that the sampling is deterministic makes it possible to represent the well distributed ray set very efficiently in computer memory. Like previously proposed stochastic radiosity algorithms, the new algorithm is well suited for computing the radiance distribution in very complex diffuse scenes, when it is not feasible to explicitly compute and store form factors as in classical radiosity algorithms. Experiments show that the new algorithm is often more efficient than previously proposed Monte Carlo radiosity algorithms by half an order of magnitude and more.  相似文献   
62.
Speed-up fractal image compression with a fuzzy classifier   总被引:4,自引:0,他引:4  
This paper presents a fractal image compression scheme incorporated with a fuzzy classifier that is optimized by a genetic algorithm. The fractal image compression scheme requires to find matching range blocks to domain blocks from all the possible division of an image into subblocks. With suitable classification of the subblocks by a fuzzy classifier we can reduce the search time for this matching process so as to speedup the encoding process in the scheme. Implementation results show that by introducing three image classes and using fuzzy classifier optimized by a genetic algorithm the encoding process can be speedup by about 40% of an unclassified encoding system.  相似文献   
63.
离散效应存在时孤子脉冲的增强压缩   总被引:1,自引:0,他引:1  
在群速度不匹配的条件下,提出一种提高孤子脉冲压缩效应的新方法.研究表明,若使信号脉冲与泵浦脉冲存在一适当的初始延时,则不但可以提高离散效应单独存在时信号脉冲的压缩比,而且可以提高孤子脉冲的压缩质量.  相似文献   
64.
A system-on-chip (SOC) usually consists of many memory cores with different sizes and functionality, and they typically represent a significant portion of the SOC and therefore dominate its yield. Diagnostics for yield enhancement of the memory cores thus is a very important issue. In this paper we present two data compression techniques that can be used to speed up the transmission of diagnostic data from the embedded RAM built-in self-test (BIST) circuit that has diagnostic support to the external tester. The proposed syndrome-accumulation approach compresses the faulty-cell address and March syndrome to about 28% of the original size on average under the March-17N diagnostic test algorithm. The key component of the compressor is a novel syndrome-accumulation circuit, which can be realized by a content-addressable memory. Experimental results show that the area overhead is about 0.9% for a 1Mb SRAM with 164 faults. A tree-based compression technique for word-oriented memories is also presented. By using a simplified Huffman coding scheme and partitioning each 256-bit Hamming syndrome into fixed-size symbols, the average compression ratio (size of original data to that of compressed data) is about 10, assuming 16-bit symbols. Also, the additional hardware to implement the tree-based compressor is very small. The proposed compression techniques effectively reduce the memory diagnosis time as well as the tester storage requirement.  相似文献   
65.
贾建国  吴治华 《测井技术》1995,19(4):294-299
本文指出一种地化学闭合模型的热中子瞬发活化伽马分析方法,它是地球化学测井的核心技术,标准谱的获得,基于标准谱的加权最小二乘解谱方法、灵敏度刻度及地球化学闭合模型是这一方法的关键环节。  相似文献   
66.
黄勇  曾庆济 《中国激光》1995,22(8):627-631
以组合波导理论为基础,分析了1480/1550 nm波分复用器的耦合区横截面形状和尺寸与偏振灵敏度的关系。着重比较了矩形截面和椭圆形截面二种波分复用器的偏振性能,并发现当椭圆截面的短轴与长轴之比为1:1.88时,器件性能几乎与偏振无关。研制成功的1480/1550 nm波分复用器的波长隔离度大于20 dB,偏振灵敏度小于0.1 dB,附加损耗小于0.5 dB。  相似文献   
67.
洪庆月  周志林 《电子器件》1996,19(3):210-214
本文介绍了在计算机上实现的二种心电图数据压缩方法,并详述了每种压缩法对心电图压缩技术的压缩比、失真度的影响。  相似文献   
68.
双正交变换为基于块的低复杂度变换,而且与传统的离散余弦变换相比,一定程度上减小了变换后图像的块效应,因而被采纳入联合图像专家组织JPEG(Joint Photographic Expert Group)最新制定的静态图像编码标准JPEG XR中。为了能够改善其无法实现码流长度控制的缺陷,文章深入研究了JPEG XR的编码技术,提出了一种针对固定压缩比的编码算法。主要思路是通过对双正交变换后的系数进行嵌入式位平面编码,取代了原先的量化步骤,使得压缩码流长度可以精确控制。  相似文献   
69.
现有的小波分解边界连续性保持方法由于将去除的节点全部插回,摒弃了数据压缩特性.为此在曲线小波分解边界处理方面提出2种基于数据压缩的连续性保持方法:一是插入与Cr连续相关的节点,然后调整相应的控制顶点与高分辨曲线的控制顶点保持一致;二是不插入节点,直接调整与Cr连续相关的控制顶点.在曲面方面,提出了曲面分裂法和T曲面法:通过插入重节点把曲面分裂成边界部分和中心部分并对边界部分插入节点,再调整相应的控制顶点与高分辨曲面的重合;构造了T网格,使其边界部分与高分辨曲面一致,中心部分与低分辨曲面一致.最后把T曲面方法推广到周期曲面小波变换边界处理上.实验结果表明,文中方法既保证了小波分解后模型的边界连续,又保留了数据压缩特性.  相似文献   
70.
在舰艇及编队指控系统中,来自不同平台的传感器探测系统偏差失配是影响态势一致性的关键因素。本文采用理论建模和数字仿真相结合的方法,对舰载雷达探测和处理涉及各环节的偏差进行分析,建立了雷达测量、坐标转换、平台定姿定位和基线转换等各环节偏差影响模型和舰载雷达探测的等效偏差模型。理论分析和计算机仿真结果表明,雷达方位测量、平台艏向和甲板艏向形变引起的偏差均可以直接迭加到方位上,合并为方位偏差;同时,在目标俯仰角小于10°的情况下,基本上可以忽略甲板形变、平台姿态偏差对目标方位测量的影响。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号