首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   537篇
  免费   59篇
  国内免费   30篇
电工技术   2篇
综合类   10篇
金属工艺   1篇
建筑科学   12篇
水利工程   2篇
武器工业   1篇
无线电   110篇
一般工业技术   1篇
自动化技术   487篇
  2022年   7篇
  2021年   7篇
  2020年   6篇
  2019年   3篇
  2018年   4篇
  2017年   13篇
  2016年   21篇
  2015年   18篇
  2014年   29篇
  2013年   31篇
  2012年   36篇
  2011年   50篇
  2010年   25篇
  2009年   42篇
  2008年   37篇
  2007年   44篇
  2006年   43篇
  2005年   34篇
  2004年   30篇
  2003年   30篇
  2002年   27篇
  2001年   15篇
  2000年   12篇
  1999年   9篇
  1998年   10篇
  1997年   10篇
  1996年   6篇
  1995年   7篇
  1994年   5篇
  1993年   4篇
  1992年   1篇
  1991年   3篇
  1990年   2篇
  1989年   1篇
  1988年   1篇
  1985年   1篇
  1981年   2篇
排序方式: 共有626条查询结果,搜索用时 15 毫秒
91.
采用设置本地端缓冲服务器的方法提高流传榆质量.在开放型网络英语教学系统中应用流媒体提供QoS的管理功能,解决音视频流缓冲问题,并提供相应机制支持网络环境下的流媒体QoS。实验结果表明,流体系结构较好实现网络教学环境下的流媒体播放,保证音视频流的QoS。采用此流体系结构能较好地实现对流的管理和控制。从而保证多媒体课件的传输质量。  相似文献   
92.
孙士雄 《有线电视技术》2010,17(1):45-48,51
本文在深入学习理解H.264帧间预测原理的基础上,采用四段流水结构来实现整个帧间预测过程。以Verilog HDL语言完成寄存器级设计,并分析了各个模块,针对参考像素的重复使用性,采用了一种Cache结构来进行缓存。并对分像素预测依据H.264标准设计了一种并行内插运算电路。通过Modelsim的功能仿真和Design Compiler的综合。证明该电路是正确的。能够满足4:2:0制式下16CIF格式图片30fps(帧/秒)的实时解码处理需求。  相似文献   
93.
刘微  李向荣 《电子器件》2010,33(1):132-134
为在嵌入式DSP平台上提高AVS解码器的运行效率,提出一种基于L1P cache的优化方法。将程序代码划分为4个模块,每个模块容量均小于L1P的容量;并改变传统的针对单个宏块进行顺序处理的模式,使每个程序模块依次处理一个宏块行的数据,从而减少4×M×(N-1)次代码冲刷。实验结果表明,基于L1P Cache的方法提高了处理器读取程序代码的效率,使解码器速度提高20%。  相似文献   
94.
Network processing in the current Internet is at the entirety of the data packet, which is problematic when encountering network congestion. The newly proposed Internet service named Qualitative Communication changes the network processing paradigm to an even finer granularity, namely chunk level, which obsoletes many existing networking policies and schemes, especially the caching algorithms and cache replacement policies that have been extensively explored in Web Caching, Content Delivery Networks (CDN) or Information-Centric Networks (ICN). This paper outlines all the new factors that are brought by random linear network coding-based Qualitative Communication and proves the importance and necessity of considering them. A novel metric is proposed by taking these new factors into consideration. An optimization problem is formulated to maximize the metric value of all retained chunks in the local storage of network nodes under the constraint of storage limit. A cache replacement scheme that obtains the optimal result in a recursive manner is proposed correspondingly. With the help of the introduced intelligent cache replacement algorithm, the performance evaluations show remarkably reduced end-to-end latency compared to the existing schemes in various network scenarios.  相似文献   
95.
本文的Cache是本人为网络安全加速卡NSA所设计的,它主要用来消除DRAM(Dynamic Random Access Memory)的延迟时间,加快系统运行速度.由于此项目是用FPGA实现的,所以本文采用FPGA内部的CAM(Content Addressable Memory)和RAM(Random Access Memory)来实现Cache以达到减小DRAM延迟的目的.与传统Cache相比它简单容易实现、节省FPGA内部资源而且性能又不比传统Cache差.它加快了数据的返回速度,提升了系统性能.  相似文献   
96.
作为计算量最多的模块之一,运动补偿占用了解码器与片外数据存储器之间约70%的带宽,是实现超高清视频解码的瓶颈。通过所设计的基于Cache的HEVC运动补偿模块,在保证实时解码数据吞吐量的同时,有效减少了80%的带宽消耗。首先,利用由可复用滤波器构成的插值计算模块和2D Cache设计了可并行化流水线数据处理的运动补偿模块,满足计算过程中高数据吞吐量需求。其次,设计高效内部存储器RAM结构,并提出片内Cache功耗降低的有效解决方案。最后,利用了参考帧数据相关性,设计插值顺序重排,将Cache的硬件开销减少了87.5%。基于HM9.0的HEVC标准测试视频序列实验结构表明,该设计显著地减少了带宽消耗和硬件开销。  相似文献   
97.
涂卫平 《电声技术》2011,35(11):54-59
针对DSP上低码率语音编码器的实现和优化问题,研究了片上Cache的分配策略.根据指令Cache的大小,以及程序处理的数据量的大小,将程序分成大小合理的段,分阶段载入Cache中.对数据Cache的分配考虑了Cache结构和数据本身的特点,使有限的数据Cache得到充分的利用.全面考察数据的生命期,使已经载入数据Cac...  相似文献   
98.
提出并实现了基于四路组相联高速缓存的高压缩V-LRU算法。该算法将有效位和近似LRU标志位压缩到只有4位,可以大大减少电路面积,且高速缓存的缺失率基本保持不变。在高速缓存容量为8kByte时,高压缩V-LRU算法的缺失率与7-bit位比较近似V-LRU算法、5-bit位复用近似V-LRU算法基本相同,而相对于9-bit近似V-LRU算法也只增加大约0.9%。基于SMIC 0.13μm工艺,高压缩V-LRU算法的电路面积相对于9-bit、7-bit和5-bit V-LRU算法,分别减少10 925.8μm2、6 415.5μm2和2 142.1μm2。而且,如果增加高速缓存的容量,4种近似V-LRU算法缺失率的差别将变得更小,但是,高压缩V-LRU算法的电路面积优势将会更加明显。  相似文献   
99.
非一致Cache体系结构(NUCA)几乎已经成为未来片上大容量Cache的发展方向。本文指出同构单芯片多处理器的设计主要有多级Cache设计的数据一致性问题,核间通信问题与外部总线效率问题,我们也说明多处理器设计上的相应解决办法。最后给出单核与双核在性能、功耗的比较,以及双核处理器的布局规划图。利用双核处理器,二级Cache控制器与AXI总线控制器等IP提出一个可供设计AXI总线SoC的非一致Cache体系结构平台。  相似文献   
100.
在多核环境下,对共享L2 Cache的优化显得尤为重要,因为当被访问的数据块不在L2 Cache中时(发生L2缺失),CPU需要花费几百个周期访问主存的代价是相当大的.在设计Cache时,替换算法是考虑的一个重要因素,替换算法的好坏直接影响Cache的性能和计算机的整体性能.虽然LRU替换算法已经被广泛应用在片上Cache中,但是也存在着一些不足:当Cache容量小于程序工作集时,容易产生冲突缺失;且LRU替换算法不考虑数据块被访问的频率.文中把冒泡替换算法应用到多核共享Cache中,同时考虑数据块被访问的频率和最近访问的信息.通过分析实验数据,与LRU替换算法相比,采用冒泡替换算法可以使MPKI(Misses per Kilo instructions)和L2 Cache命中率均有所改善.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号