首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   989篇
  免费   250篇
  国内免费   183篇
电工技术   19篇
综合类   85篇
化学工业   4篇
金属工艺   4篇
机械仪表   8篇
建筑科学   4篇
矿业工程   3篇
能源动力   2篇
轻工业   9篇
水利工程   1篇
石油天然气   2篇
武器工业   1篇
无线电   210篇
一般工业技术   19篇
冶金工业   6篇
原子能技术   2篇
自动化技术   1043篇
  2024年   1篇
  2023年   11篇
  2022年   23篇
  2021年   24篇
  2020年   33篇
  2019年   46篇
  2018年   21篇
  2017年   31篇
  2016年   35篇
  2015年   50篇
  2014年   76篇
  2013年   74篇
  2012年   104篇
  2011年   85篇
  2010年   73篇
  2009年   79篇
  2008年   120篇
  2007年   109篇
  2006年   82篇
  2005年   71篇
  2004年   50篇
  2003年   57篇
  2002年   42篇
  2001年   28篇
  2000年   19篇
  1999年   25篇
  1998年   13篇
  1997年   7篇
  1996年   9篇
  1995年   3篇
  1994年   4篇
  1993年   7篇
  1992年   2篇
  1991年   1篇
  1990年   2篇
  1989年   2篇
  1988年   1篇
  1979年   1篇
  1978年   1篇
排序方式: 共有1422条查询结果,搜索用时 15 毫秒
1.
针对空间信息网络(space information network,SIN)中卫星节点缓存容量有限,且卫星高速移动使得星间链路时变,导致地面用户内容访问延迟增大的问题,提出一种基于人工蜂群算法的空间信息网络缓存决策策略(satellite improved artificial bee colony,SIABC)。首先根据低轨卫星节点链路切换的周期性和可预知性,建立网络分区模型,对空间信息网络的卫星节点进行分区,在此基础上,建立区域节点协作缓存模型,使得整个网络区域内的卫星节点有选择性地缓存不同流行度的内容,同时兼顾区域内节点的协作缓存,从而流行度高的内容缓存在网络边缘。仿真结果表明,与现有缓存机制相比,该缓存策略能够明显提高内容的平均缓存命中率,并显著降低用户的内容访问时延。  相似文献   
2.
由于对丰富多媒体服务的需求日益增长,车联网需要提供海量的设备连接以满足高频谱效率和低延迟的需求。软件定义网络(SDN)、缓存和非正交多址接入(NOMA)被认为是有效解决这些关键挑战的潜在技术。针对软件定义车联网,提出了一种缓存辅助的NOMA功率分配方案。首先,针对车联网中车辆总是处于高速运动状态的特点,提出了一种新的簇头选择算法,到达的道路交通将借助SDN进行预测,实现自适应车辆分簇。其次,引入了缓存辅助的NOMA方案,每个车辆在文件缓存阶段使用NOMA原理缓存和请求文件。再次,针对双Nakagami-m衰落条件下的两个簇头车辆通信场景,提出了一种最优功率分配策略,将优化问题公式化为找到每辆车的最佳功率曲线,从而最大化地在每辆车上成功解码目标文件的概率。最后,数值仿真和理论分析表明,所提缓存辅助NOMA功率分配方案,性能明显优于传统的NOMA和缓存辅助的OMA。  相似文献   
3.
由新型非易失存储介质构成的持久性内存(persistent memory,PM)具有扩展性强、按字节访问与静态能耗低等特性,为未来主存与辅存融合提供了强大的契机.然而由于LLC(last level cache)具有易失性且与主存交互粒度通常为64B,而PM的原子持久化操作粒度为8B.因此,数据从LLC更新到PM的过程中,若发生故障,则可能破坏更新操作的失败原子性,进而影响原始数据的完整性.为了保证更新操作的失败原子性,目前研究主要采用显式调用持久化指令与内存屏障指令,将数据有序地持久化到PM上,但该操作会造成显著的开销,在索引更新中尤为明显.在对索引进行更新时,往往会涉及到索引结构的变化,该变化需要大量的有序持久化开销.研究旨在减少基于PM的B+树在更新过程中为保证失败原子性而引入的持久化开销.通过分析B+树节点利用率、不同更新模式下持久化开销以及更新操作之间的关系,提出了一种基于节点内数据真实分布的数据单向移动算法.通过原地删除的方式,减少删除带来的持久化开销.利用删除操作在节点内留下的空位,减少后续插入操作造成的数据移动,进而减少数据持久化开销.基于上述算法,对B+树的重均衡操作进行优化.最后通过实验证明,相较于最新基于PM的B+树,提出的单向移动B+树能够显著提高单一负载与混合负载性能.  相似文献   
4.
Hash tables, as a type of data indexing structure that provides efficient data access based on key values, are widely used in various computer applications, especially in system software, databases, and high-performance computing field that requires extremely high performance. In network, cloud computing and IoT services, hash tables have become the core system components of cache systems. However, with the large-scale increase in the amount of large-scale data, performance bottlenecks have gradually emerged in systems designed with a multi-core CPU as the core of the hash table structure. There is an urgent need to further improve the high performance and scalability of the hash tables. With the increasing popularity of general-purpose Graphic Processing Units (GPUs) and the substantial improvement of hardware computing capabilities and concurrency performance, various types of system software tasks with parallel computing as the core have been optimized on the GPU and have achieved considerable performance promotion. Due to the sparseness and randomness, using the existing parallel structure of the hash tables directly on the GPUs will inevitably bring high-frequency memory access and frequent bus data transmission, which affects the performance of the hash tables on the GPUs. This study focuses on the analysis of memory access, hit ratio, and index overhead of hash table indexes in the cache system. A hybrid access cache indexing framework CCHT (Cache Cuckoo Hash Table) adapted to GPU is proposed and provided. The cache strategy suitable to different requirements of hit ratios and index overheads allows concurrent execution of write and query operations, maximizing the use of the computing performance and concurrency characteristics of GPU hardware, reducing memory access and bus transferring overhead. Through GPU hardware implementation and experimental verification, CCHT has better performance than other cache indexing hash tables while ensuring cache hit ratios.  相似文献   
5.
Efficient cache management plays a vital role in in-memory data-parallel systems, such as Spark, Tez, Storm and HANA. Recent research, notably research on the Least Reference Count (LRC) and Most Reference Distance (MRD) policies, has shown that dependency-aware caching management practices that consider the application’s directed acyclic graph (DAG) perform well in Spark. However, these practices ignore the further relationship between RDDs and cached some redundant RDDs with the same child RDDs, which degrades the memory performance. Hence, in memory-constrained situations, systems may encounter a performance bottleneck due to frequent data block replacement. In addition, the prefetch mechanisms in some cache management policies, such as MRD, are hard to trigger. In this paper, we propose a new cache management method called RDE (Redundant Data Eviction) that can fully utilize applications’ DAG information to optimize the management result. By considering both RDDs’ dependencies and the reference sequence, we effectively evict RDDs with redundant features and perfect the memory for incoming data blocks. Experiments show that RDE improves performance by an average of 55% compared to LRU and by up to 48% and 20% compared to LRC and MRD, respectively. RDE also shows less sensitivity to memory bottlenecks, which means better availability in memory-constrained environments.  相似文献   
6.
Spark is a distributed data processing framework based on memory. Memory allocation is a focus question of Spark research. A good memory allocation scheme can effectively improve the efficiency of task execution and memory resource utilization of the Spark. Aiming at the memory allocation problem in the Spark2.x version, this paper optimizes the memory allocation strategy by analyzing the Spark memory model, the existing cache replacement algorithms and the memory allocation methods, which is on the basis of minimizing the storage area and allocating the execution area according to the demand. It mainly including two parts: cache replacement optimization and memory allocation optimization. Firstly, in the storage area, the cache replacement algorithm is optimized according to the characteristics of RDD Partition, which is combined with PCA dimension. In this section, the four features of RDD Partition are selected. When the RDD cache is replaced, only two most important features are selected by PCA dimension reduction method each time, thereby ensuring the generalization of the cache replacement strategy. Secondly, the memory allocation strategy of the execution area is optimized according to the memory requirement of Task and the memory space of storage area. In this paper, a series of experiments in Spark on Yarn mode are carried out to verify the effectiveness of the optimization algorithm and improve the cluster performance.  相似文献   
7.
为提高航天器FPGA设备的可靠性,提出基于三模冗余架构的航天器FPGA可靠性设计。根据FPGA架构的基础连接原理,设计处理单元、配置单元、射频单元与双闭环电路组织,完成航天器FPGA的拓扑结构研究。在此基础上,连接总线通信串口,按照数据缓存的队列请求,控制总线状态机的既定化状态,完成航天器FPGA结构的传输转换。分别调试关键器件FPGA、复位航天芯片、整星联合三项,实现三模冗余架构的特性分析,完成基于三模冗余架构的航天器FPGA设计。实验检测结果表明,随着设备航行时间的增加,MPPT、SPPT指标的最大数值均占比70%以上,航天器FPGA的高可靠属性得以有效保持。  相似文献   
8.
社交网络和其他云应用程序应该能对从数据中心发出的请求作出快速响应,实现这种请求的技术之一是内存中的键值存储(IMKVS),它是一种缓存机制,目的是为了提高整体用户体验。一般地,IMKVS系统使用一致性哈希来决定在哪存储目标,一致性哈希使用起来方法简单,但可能引起网络负载的不平衡。为了提高IMKVS的缓存性能,提出一种软件定义网络中利用IMKVS结合NFV的分布式网络负载均衡策略。该策略包含两个阶段,第一阶段设计通用的SDN负载平衡器的模块,以运行不同的负载平衡算法;第二阶段是基于IMKVS的专业化缓存,可以实现通信管理和数据复制。仿真结果表明,相比于一致性哈希,缓存服务器上的负载可改善24%,网络上的负载可改善7%,策略能够使资源利用更合理,获得更好的用户体验。  相似文献   
9.
Journal of Computer Science and Technology - New non-volatile memory (NVM) technologies are expected to replace main memory DRAM (dynamic random access memory) in the near future. NAND flash...  相似文献   
10.
Journal of Computer Science and Technology - Contents such as audios, videos, and images, contribute most of the Internet traffic in the current paradigm. Secure content sharing is a tedious issue....  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号