首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   541篇
  免费   60篇
  国内免费   31篇
电工技术   2篇
综合类   10篇
金属工艺   1篇
建筑科学   12篇
水利工程   2篇
武器工业   1篇
无线电   114篇
一般工业技术   1篇
自动化技术   489篇
  2024年   1篇
  2023年   1篇
  2022年   7篇
  2021年   7篇
  2020年   6篇
  2019年   4篇
  2018年   5篇
  2017年   14篇
  2016年   21篇
  2015年   18篇
  2014年   30篇
  2013年   31篇
  2012年   36篇
  2011年   50篇
  2010年   25篇
  2009年   42篇
  2008年   37篇
  2007年   44篇
  2006年   43篇
  2005年   34篇
  2004年   30篇
  2003年   30篇
  2002年   27篇
  2001年   15篇
  2000年   12篇
  1999年   9篇
  1998年   10篇
  1997年   10篇
  1996年   6篇
  1995年   7篇
  1994年   5篇
  1993年   4篇
  1992年   1篇
  1991年   3篇
  1990年   2篇
  1989年   1篇
  1988年   1篇
  1985年   1篇
  1981年   2篇
排序方式: 共有632条查询结果,搜索用时 13 毫秒
131.
Worst-case (WCET) and best-case (BCET) execution times must be estimated in real-time systems. Worst-case memory performance (WCMP) and best-case memory performance (BCMP) components are essential to estimate them. These components are difficult to calculate in the presence of data caches, since the data cache performance depends largely on the sequence of memory addresses accessed. These addresses may be unknown because the base address of a data structure is unavailable for the analysis or it may change between different executions. This paper introduces a model that provides fast and tight valid estimations of the BCMP, despite ignoring the base address of the data structures. The model presented here, in conjunction with an existing model that estimates the WCMP, can provide base-address independent estimations of the BCMP and WCMP. The experimental results show that the base addresses of the data structures have a large influence in the cache performance, and that the model estimations of the boundaries of the memory performance are valid for any base addresses of the data structures.  相似文献   
132.
An SSD generally has a small memory, called cache buffer, to increase its performance and the frequently accessed data are maintained in this cache buffer. These cached data must periodically write back to the NAND Flash memory to prevent the data loss due to sudden power-off, and it should immediately flush all dirty data items into a non-volatile storage media (i.e., NAND Flash memory), when receiving a flush command, while the flush command is supported in Serial ATA (SATA) and Serial Attached SCSI (SAS). Thus, a flush command is an important factor to give significant impact on SSD performance.In this paper, we have investigated the impact of a flush command on SSD performance and have conducted in-depth experiments with versatile workloads, using the modified FlashSim simulator. Our performance measurements using PC and server workloads provide several interesting conclusions. First, a cache buffer without a flush command could improve SSD performance as a cache buffer size increases, since more requested data could be handled in the cache buffer. Second, our experiments have revealed that a flush command might give a negative impact on SSD performance. The average response time per request with a flush command is getting worse compared to not supporting the flush command, as cache buffer size increases. Finally, we have proposed the backend flushing scheme to nullify the negative performance impact of the flush command. The backend flushing scheme first writes the requested data into a cache buffer and sends the acknowledgment of the request completion to a host system. Then, it writes back the data in the cache buffer to NAND Flash memory. Thus, the proposed scheme could improve SSD performance since it might reduce the number of the dirty data items in a cache buffer to write back to NAND Flash memory.All these results suggest that a flush command could give a negative impact on SSD performance and our proposed backend flushing scheme could improve the SSD performance while supporting a flush command.  相似文献   
133.
This paper presents two cache invalidation schemes to maintain data consistency between the server and clients in a mobile environment. Designed according to real situations like MANET, the Adaptive Data Dividing (ADD) scheme divides data into groups of different utilization ratios and varies group broadcast intervals to reduce data access time and bandwidth consumption. The Data Validity Defining (DVD) scheme aims to solve the validity problem of cached data items, which usually happens after clients disconnect from the server. Experimental evaluations and performance analyses exhibit that the two schemes outperform most existing cache invalidation schemes in terms of data access time, cache miss ratios, query uplink ratios and bandwidth consumption.  相似文献   
134.
多数处理器中采用多级包含的cache存储层次,现有的末级cache块替换算法带来的性能开销较大.针对该问题,提出一种优化的末级cache块替换算法PLI,在选择丢弃块时考虑其在上级cache的访问频率,以较小的代价选出最优的LLC替换块.在时钟精确模拟器上的评测结果表明,该算法较原算法性能平均提升7%.  相似文献   
135.
谭成辉  杨磊  文建国  李肯立 《计算机工程》2011,37(5):270-272,275
设计并实现一个基于分级Cache的透明计算系统HCTS,在系统客户端和服务端采用两级缓存来提升I/O性能。在缓存的管理策略上,针对透明计算应用环境,以提高缓存命中率为主要目标,提出一种基于访问频率计数阈值的改进LRU置换算法LRU-AFS。测试结果表明,当网络环境中的客户主机数不断增加时,与普通透明计算系统TS相比,HCTS能够在减少网络流量的同时大幅缩短客户机启动时间,提高随机读写吞吐量。  相似文献   
136.
倪亚路  周晓方 《计算机工程》2011,37(22):231-233
综合效用最优划分共享Cache方法和传统LRU方法的优点,提出一种新的动态划分共享Cache方法。该方法可消除不同线程在共享Cache中的相互影响,当多核并行执行的程序均对共享Cache中占有的路数敏感时,可解决采用效用最优划分方法时的性能下降问题。经SPEC CPU2000测试表明,该方法与传统LRU和效用最优划分方法相比,系统整体性能平均分别提高20.28%和14.37%。  相似文献   
137.
对共享架构共享存储的SaaS应用来说,如何实现SaaS应用数据低代价高速查询一直是其中的焦点问题之一.在元数据驱动的SaaS应用多级定制模型中,定制元数据存在层次关系,查询代价较高,普通的数据查询优化机制不足以实现SaaS应用的性能优势.采用元数据传递闭包策略解决该问题,针对多级定制的SaaS应用的特点,提出面向租户的...  相似文献   
138.
非结构化P2P网络的资源搜索算法研究   总被引:2,自引:0,他引:2  
针对非结构P2P网络利用泛洪搜索机制进行资源搜索存在的问题,提出一种利用节点兴趣建立快捷链接,同时结合缓存技术的ICS搜索算法.实验结果表明,该算法不仅提高了搜索效率,也减少了网络流通的信息量.  相似文献   
139.
刘炫  陆体军  贾惠波 《计算机工程》2007,33(11):224-226
Cache作为提高访问效率、改善系统性能的重要环节和技术,广泛地应用于各种计算、匹配场合中。除了在处理器上使用之外,在Web访问及存储系统中,为了提高访问速度,Cache也扮演了重要的角色。该文分析了当前应用于处理器、Web Cache等方面的替换算法,针对网络光盘库这个存储系统的自身特点,提出了一种新的替换算法。该算法结合了LFU和MQ这两种算法的特点,提高了数据在Cache中的命中率。实验表明替换算法与访问模型密切相关。  相似文献   
140.
基于AES算法的Cache Hit旁路攻击   总被引:3,自引:0,他引:3       下载免费PDF全文
邓高明  赵强  张鹏  陈开颜 《计算机工程》2008,34(13):113-114
AES加密快速实现中利用了查表操作,查表的索引值会影响Cache命中率和加密时间,而查表的索引值和密钥存在密切关系。通过分析AES最后一轮加密过程中查表索引值与密文和最后一轮子密钥的关系,以及它们对Cache命中与否和加密时间长短的影响,提出一种利用Cache hit信息作为旁路信息对AES进行旁路攻击的技术,在Intel Celeron 1.99 GHz和Pentium4 3.6 GHz CPU的环境中,分别在221和225个随机明文样本的条件下,在5 min内恢复了OpenSSL v.0.9.8(a)库中AES的128 bit密钥,并介绍防御这种攻击途径的手段。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号