首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   541篇
  免费   60篇
  国内免费   31篇
电工技术   2篇
综合类   10篇
金属工艺   1篇
建筑科学   12篇
水利工程   2篇
武器工业   1篇
无线电   114篇
一般工业技术   1篇
自动化技术   489篇
  2024年   1篇
  2023年   1篇
  2022年   7篇
  2021年   7篇
  2020年   6篇
  2019年   4篇
  2018年   5篇
  2017年   14篇
  2016年   21篇
  2015年   18篇
  2014年   30篇
  2013年   31篇
  2012年   36篇
  2011年   50篇
  2010年   25篇
  2009年   42篇
  2008年   37篇
  2007年   44篇
  2006年   43篇
  2005年   34篇
  2004年   30篇
  2003年   30篇
  2002年   27篇
  2001年   15篇
  2000年   12篇
  1999年   9篇
  1998年   10篇
  1997年   10篇
  1996年   6篇
  1995年   7篇
  1994年   5篇
  1993年   4篇
  1992年   1篇
  1991年   3篇
  1990年   2篇
  1989年   1篇
  1988年   1篇
  1985年   1篇
  1981年   2篇
排序方式: 共有632条查询结果,搜索用时 15 毫秒
181.
文章的研究来源于广西某师范成教学院的教务管理系统,针对成教学院的教务管理工作强度高、效率低等特点,系统采用B/S/S架构,运用了分页、数据库连接池、内存缓存等技术,开发的教务管理系统满足了用户的需求,具有很大的实用性和推广性.  相似文献   
182.
非结构化P2P网络的资源搜索算法研究   总被引:1,自引:0,他引:1  
针对非结构P2P网络利用泛洪搜索机制进行资源搜索存在的问题,提出一种利用节点兴趣建立快捷链接,同时结合缓存技术的ICS搜索算法.实验结果表明,该算法不仅提高了搜索效率,也减少了网络流通的信息量.  相似文献   
183.
分析了有腿的步行机器人控制器性能瓶颈的产生原因.提出优化机器人多处理机控制系统性能的有效方法。  相似文献   
184.
随着处理器和存储器速度差距的不断拉大,访存指令尤其是频繁cache miss的指令成为影响性能的重要瓶颈。编译器由于无法得知访存指令动态执行的拍数,一般假定这些指令的延迟为cache命中或者cache miss的延迟,所以并不准确。我们引入cache profiling技术来收集访存指令运行时的cache miss或者命中的信息,利用这些信息来计算访存的延迟。乱序机器上硬件的指令调度对于发射窗口内的指令能进行很好的动态调度,编译器则对更长的范围内的指令调度更有优势。在reorder buffer中cache miss一旦发生,容易引起reorder buffer满,导致流水线阻塞。调度容易cache miss的指令。使其并行执行,从而隐藏cache miss的长延迟,就可以提高程序性能。因此,我们针对load指令,一方面修改频繁miss的指令的延迟,一方面修改调度策略,提高存储级并行度。实验证明,我们的调度对于bzip2有高达4.8%的提升,art有4%的提升,整体平均提高1.5%。  相似文献   
185.
Sheraz Anjum  陈杰   《电子器件》2007,30(5):1861-1865
为了提高高速DSP或通用处理器的程序执行速度,描述了一种指令缓存单元的有效架构,特别是实现细节和性能分析.因所提出的指令缓存单元是为一种高性能VLIW结构的DSP核而设计,使用了并行的标签比较逻辑和寄存器堆的结构,芯片面积、关键路径延迟、功耗都大大减小.该指令缓存单元使用高层次的RTL(使用Verilog)编码,并由Synopsys的Design Compiler综合,使用不同的StarCoreTM基准程序测试比较,并进行性能分析.比较结果表明,所提出的结构是有效的,适合用于任何高速的处理器核.  相似文献   
186.
提出了一种动态可重构高速缓存结构,提升了系统性能;同时,大大降低了功耗。该结构在传统高速缓存上作少量的硬件改动,实现了高速缓存容量、块大小和关联度的动态可配置性。实验结果表明,相对于传统结构,动态可重构高速缓冲存储器在不损失性能的前提下,取得了很好的降低系统功耗的效果。  相似文献   
187.
The effectiveness of the buffer cache replacement is critical to the performance of I/O systems. In this paper, we propose a degree of inter-reference gap (DIG) based block replacement scheme. This scheme keeps the simplicity of the least recently used (LRU) scheme and does not depend on the detection of access regularities. The proposed scheme is based on the low inter-reference recency set (LIRS) scheme, which is currently known to be very effective. However, the proposed scheme employs several history information items whereas the LIRS scheme uses only one history information item. The overhead of the proposed scheme is almost negligible. To evaluate the performance of the proposed scheme, the comprehensive trace-driven computer simulation is used in general access patterns. Our simulation results show that the cache hit ratio (CHR) in the proposed scheme is improved as much as 65.3% (with an average of 26.6%) compared to the LRU for the same workloads, and up to 6% compared to the LIRS in multi3 trace.  相似文献   
188.
The file system, and the components of the computer system associated with it (disks, drums, channels, mass storage tapes and tape drives, controllers, I/O drivers, etc.) comprise a very substantial fraction of most computer systems; substantial in several aspects, including amount of operating system code, expense for components, physical size and effect on performance. In a comparison paper, we surveyed the traditional methods for optimizing the I/O system. We then examined disk and I/O system architecture in IBM type systems, and indicated shortcomings and future directions. In this paper we go one step further and summarize research by the author on two topics: cache disks and file migration. Cache disks are disks which have an associated cache which buffers recently used tracks of data. The case for cache disks is presented, and some of the issues are discussed. Parameter values for some aspects of the cache design are suggested. The second part of this paper summarizes the author's work on file migration, by which files are migrated between disk and mass storage as needed in order to effectively maintain on-line a much larger amount of information than the disks can hold. Some of the algorithms investigated are discussed, and the basic results are presented.  相似文献   
189.
当前的Web缓存机制不能有效地处理越来越多的动态内容。本文结合代理缓存和HTTP实时压缩机制.引入规则处理集,在缓存静态内容的基础上,动态协商Web动态响应内容的压缩和缓存,提高缓存命中率,减少传输内容的长度,从而减缓Web服务器的负载,增加系统吞吐量。理论分析和性能测试表明该方法能有效地实现动态内容加速。  相似文献   
190.
提出了一个基于最优Cache替换(OPT)Profiling的静态Cache提示生成方法,并通过模拟SPEC2000Int测试程序,对该方法与LRU Cache替换策略进行了性能比较。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号