共查询到19条相似文献,搜索用时 78 毫秒
1.
2.
3.
8位嵌入式CPU核的正向设计 总被引:4,自引:1,他引:3
介绍了一个与Motorola 68HC05指令兼容的8位CPU核的设计,分析了系统结构和工作原理以及设计构思,最后简要介绍了一个用VHDL语言实现的通用仿真验证软件. 相似文献
4.
5.
6.
7.
《信息通信》2016,(11)
随着云计算技术的推广和发展,基于云计算的应用研究也越来越多。云计算在计算性能和计算精度上都有着无可替代的作用,同时其可以智能的分配计算资源,达到计算资源的充分利用。目前对嵌入式处理器中CPU功耗预测的研究还局限于在普通计算机上进行的非分布式算法,针对目前大量的嵌入式处理器CPU传统的方法已经难以适应现状。如前文所述,云计算以其优势非常适用于解决当前嵌入式处理器中CPU功耗预测问题。因此文章提出一种基于云计算的嵌入式处理器中CPU功耗预测方法,该方法结合了传统的功耗预测方法和云计算方法,采用分布式的构建思想,采用数据存储,定制计算,开关控制等模块实现该方法。最后文章给出了实际的实验例子验证了该方法的有效性。 相似文献
8.
9.
10.
本文介绍了在充分利用嵌入式网络模块的资源优势上,设计出具有网络化、多功能、高速性等特点的新一代自动识别数据采集系统,使其具有广泛的应用前景,尤其为考勤、门禁、公交管理、校园一卡通、物流管理、商场自动化、智能家居小区管理等领域构造了具有新概念的开发平台。 相似文献
11.
在SoC系统中,片上缓存(Cache)的采用是解决片上处理器和片外存储器之间速度差异的重要方法,Cache中用来存储标记位并判断cache是否命中的Tag电路的设计将会影响到整个Cache的性能。本文阐述了Tag电路原理,采用write和compare两根控制信号线,控制Tag电路在预充电,比较和加载三种状态之间进行转换。仿真结果表明Tag电路可以实现其功能,使系统性能得到提高。 相似文献
12.
本文对现代微处理器Cache设计的关键要素,包括Cache的相联度、寻址方式、透明性实现、失配处理方式、结构与层次等,进行了详细的讨论;对每一要索的各种可能选择进行了分析与比较,并讨论了这些要素在各类最新微处理器Cache设计中的实现。 相似文献
13.
Verification of software running time is essential in embedded systemdesign with real-time constraints. Simulation with incomplete test patternsis unsafe for complex architectures when software running times are inputdata dependent. Formal analysis of such dependencies leads to software runningtime intervals rather than single values. These intervals depend on programproperties, execution paths and states of processes, as well as on the targetarchitecture. In the target architecture, caches have a major influence onsoftware running time. Current cache analysis techniques as a part of runningtime analysis approaches combine basic block level cache modeling with explicitor implicit program path analysis. We present an approach that extends instructionand data cache modeling from basic blocks to program segments thereby increasingthe overall running time analysis precision. We combine it with data flowanalysis based prediction of cache line contents. This novel cache analysisapproach shows high precision in the presented experiments. 相似文献
14.
Anca M. Molnos Sorin D. Cotofana Marc J. M. Heijligers Jos T. J. van Eijndhoven 《Journal of Signal Processing Systems》2009,57(2):155-172
This paper proposes a dynamic cache repartitioning technique that enhances compositionality on platforms executing media applications
with multiple utilization scenarios. Because the repartitioning between scenarios requires a cache flush, two undesired effects
may occur: (1) in particular, the execution of critical tasks may be disturbed and (2) in general, a performance penalty is
involved. To cope with these effects we propose a method which: (1) determines, at design time, the cache footprint of each
tasks, such that it creates the premises for critical tasks safety, and minimum flush in general, and (2) enforces, at run-time,
the design time determined cache footprints and further decreases the flush penalty. We implement our dynamic cache management
strategy on a CAKE multiprocessor with 4 Trimedia cores. The experimental workload consists of 6 multimedia applications,
each of which formed by multiple tasks belonging to an extended MediaBench suite. We found on average that: (1) the relative
variations of critical tasks execution time are less than 0.1%, regardless of the scenario switching frequency, (2) for realistic
scenario switching frequencies the inter-task cache interference is at most 4% for the repartitioned cache, whereas for the
shared cache it reaches 68%, and (3) the off-chip memory traffic reduces with 60%, and the performance (in cycles per instruction)
enhances with 10%, when compared with the shared cache.
相似文献
Anca M. MolnosEmail: |
15.
16.
提出的访存时间最优Cache划分(OMTP, optimalmemorytimeCachepartitioning)方法通过特征获取部件来获取不同应用程序的平均失效开销和Cache命中的路分布情况,以此作为划分依据来给竞争程序分配合适的Cache空间,达到优化程序整体执行性能的目的.实验结果表明,OMTP方法相比基于利用率的Cache划分(UCP)方法吞吐率平均提高3.1%,加权加速比平均提高1.3%,整体性能更优 相似文献
17.
一种静态可控功耗的数据Cache设计 总被引:2,自引:2,他引:2
在目前的微处理器设计中,片内Cache存储器的能量损耗所占的比重越来越大。本文给出了一种能够有效降低功耗的数据Cache设计方法。该方法通过静态调节组映射策略,根据应用程序的自身特点调节数据Cache的容量大小,并且选择合理的替换算法,在保证高性能的同时降低了能量损耗。 相似文献
18.
19.
Cache是一种互联网高速缓存系统,是目前移动运营商提升数据业务下载速率最有效的手段之一。它通过分析和研究互联网业务的请求链接URL,采用被动缓存技术,对热点业务的资源内容进行缓存和重定向转发,将外网资源迁移至网内进行本地化缓存,达到缩短终端用户下载目标资源的路径长度的目的。对P2P文件传输、HTTP文件下载、Web页面浏览以及在线视频播放等各种应用实现网内缓存加速,能提升30%左右的下载速率。同时Cache系统中的重定向功能,也可对移动数据业务访问成功率带来2.2%的提升。 相似文献