共查询到16条相似文献,搜索用时 140 毫秒
1.
基于NAND FLASH的高速大容量存储系统设计 总被引:9,自引:2,他引:7
为了解决目前记录系统容量小、存储速度低的问题,采用性能优良的固态NAND型FLASH为存储介质,大规模集成电路FPGA为控制核心,通过使用并行处理技术和流水线技术实现了多片低速FLASH对高速数据的存储,提高了整个系统的存储容量和存储速度。针对FLASH内部存在坏块的自身缺陷,建立一套查询、更新和屏蔽坏块的处理机制,有效的提高了数据存储的可靠性。 相似文献
2.
3.
4.
5.
文章针对NAND Flash在大容量数据存储时对可靠性的要求,提出一种基于逻辑一物理块地址映射表的大容量NAND Flash动态坏块管理算法。该方法可彻底屏蔽对坏块的操作,实现对NAND Flash的有效存储,具有较高的实际应用价值。 相似文献
6.
基于NAND Flash的固态硬盘存在坏块,坏块无法用于存储数据,需要对其进行管理。每个块用1位信息与之对应建立坏块表,根据坏块表建立逻辑块转变为物理块表,一个逻辑块对应多个不同的物理块。逻辑块转变为物理块表可排除上层对于坏块的操作,保证了数据存储的安全性和可靠性。 相似文献
7.
基于闪存的高速大容量存储系统设计 总被引:1,自引:0,他引:1
介绍一种基于Flash和FPGA的高速大容量数据存储系统的组成机制和实现方法,并且给出了系统的硬件结构及软件设计流程.在分析了Flash结构和特点的基础上引用并行总线和多级流水技术实现了高速存储,采用ECC数据校验和自动屏蔽闪存坏块的方法提高了数据存储及回放的可靠性.实验结果表明,该存储系统工作稳定,存储速度高、容量大、可靠性好. 相似文献
8.
9.
10.
《现代电子技术》2017,(18)
NAND FLASH存储器具有非易失性、存储容量大和读写速度快等优点,在存储测试领域的应用越来越广泛。由于NAND FLASH存储器中不可避免会出现无效块,传统的管理方法是将无效块映射表存放在FLASH存储器中,可靠性低,对数据存储速度和可靠性都会造成不利影响。针对这些问题,提出了基于外置存储数据位的无效块快速检索架构,将无效块映射表存放在可靠性高的铁电存储器中;引入计算机网络中的滑动窗口原理,建立了基于滑动窗口的无效块预匹配机制,在不影响FLASH存取速度的情况下可无时延地生成有效块地址。经分析和论证,这种架构对NAND FLASH存储数据的可靠性和存取速度有很大的提升,提高了存储测试系统的整体性能。 相似文献
11.
凭借着存储密度大和存储速率高的特点,基于NANDFlash的大容量存储器在星载存储领域得到了广泛的应用,由于NAND Flash本身存在缺陷,基于NAND Flash的大容量存储器在恶劣环境下的可靠性难以保证.提出了通过FPGA设计SRAM对关键数据三模冗余读取和缓冲、NAND Flash阵列热备份和数据的回放校验以及合理的坏块管理等措施,实现了高可靠性的大容量存储器.实验说明该系统不会因为外在偶然因素而造成数据的不完整,而且整个存储系统的成本开销相对于目前的星载存储器也非常低. 相似文献
12.
13.
在当今数字时代,NAND Flash由于其非易失性和读写速度快等原因而在大容量存储中的应用越来越广。但由于Flash中不可避免的会出现坏块,对大容量存储的速度与精度都造成了影响,针对大容量存储中NAND Flash存在坏块对其造成的影响,我们主要研究了NAND Flash中坏块出现的原因,对坏块进行的分类,并提出了相应的管理方案。实践证明,经过对坏块的管理,Flash存储数据的安全性和存储速度都有了很大的提升,提高了系统的整体性能。 相似文献
14.
15.
16.
Random access memory organizations typically are chosen for maximum reliability, based on the operation of the memory box itself without concern for the remainder of the computing system. This had led to widespread use of the 1-bit-per-chip, or related organization which uses error correcting codes to minimize the effects of failures occurring in some basic unit such as a word or double word (32 to 64 bits). Such memory boxes are used quite commonly in paged virtual memory systems where the unit for protection is really a page (4K bytes), or in a cache where the unit for protection is a block (32 to 128 bytes), not a double word. With typical high density memory chips and typical ranges of failure rates, the 1-bit-per-chip organization can often maximize page failures in a virtual memory system. For typical cases, a paged virtual memory using a page-per-chip organization can substantially improve reliability, and is potentially far superior to other organizations. This paper first describes the fundamental considerations of organization for memory systems and demonstrates the underlying problems with a simplified case. Then the reliability in terms of lost pages per megabyte due to hard failures over any time period is analyzed for a paged virtual memory organized in both ways. Normalized curves give the lost pages per Mbyte as a function of failure rate and accumulated time. Assuming reasonable failure rates can be achieved, the page-per-chip organization can be 10 to 20 times more reliable than a 1-bit-per-chip scheme. 相似文献