首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 656 毫秒
1.
文磊  雷菁 《无线电通信技术》2006,32(3):19-21,31
消息传递机制是影响LDPC码解码性能的重要因素。简要介绍了Gallager提出的LDPC码和基于洪水消息传递机制的和积解码算法。在此基础上引入基于校验节点的串行消息传递机制并提出具体可实现的解码算法模型。该串行解码算法按照校验节点一定的顺序进行消息处理和传递,保证更新的消息能够马上进入迭代过程,从而改善消息传递的收敛特性;同时充分利用消息间相互关联的特点,融合消息传递步骤,可以降低所需的存储容量,简化解码复杂度。分别应用洪水解码算法和串行解码算法在AWGN信道下进行性能仿真。仿真结果表明串行解码算法使解码性能得到明显提高。  相似文献   

2.
本文提出了一种改进的LDPC码的比特反转解码算法.该算法考虑了如下两个方面的影响:校验错误的方程中所含有的比特数目对各个比特的错误概率的影响,以及校验错误的方程中,所含有的那些比特各自所参与的校验错误的方程数目对各个比特的错误概率的影响.该解码算法不需要软信息即可进行解码,其解码复杂度较低.仿真结果表明,本文提出的改进算法比原来的比特反转算法有较大的性能提高,并且对于大girth的LDPC码,该解码算法的性能甚至优于多种利用软信息的比特反转算法.  相似文献   

3.
基于串行消息传递机制的QC-LDPC码快速译码算法研究   总被引:1,自引:0,他引:1  
针对准循环LDPC(QC-LDPC)码基于洪水消息传递机制译码算法的不足,该文提出了一种快速的分组串行译码算法。该算法通过将LDPC码的校验节点(或变量节点)按一定规则划分成若干个子集,在每一轮迭代过程中,依次对各个子集中的校验节点(或变量节点)并行地进行消息更新,提高了译码速度。同时根据分组规则,提出了一种有效的分组方法,并通过分析发现基于循环置换阵的准循环LDPC码非常适合采用这种分组译码算法进行译码。通过对不同消息传递机制下准循环LDPC码译码算法性能的仿真比较,验证了在复杂度不增加的情况下,该译码算法在继承了串行译码算法性能优异和迭代收敛快等优点的同时,极大地提高了准循环LDPC码的译码速度。分析表明,分组串行译码算法译码速度至少为串行译码算法的p倍(p为准循环LDPC码校验矩阵中循环置换阵的行数或列数)。  相似文献   

4.
本文提出一种低复杂度的多元LDPC译码算法,从以下两个方面降低复杂度:(1)提出一种节点截断策略,构造处理/非处理校验节点子集,使得一部分足够可靠的校验节点不进行信息更新,从而减少运算量;(2)针对处理校验节点子集,本文进而提出一种k阶信息截断准则,对Trellis图上的边和状态进行划分.在迭代递归过程中,只有"活"的状态/边才参与运算,可进一步降低校验节点的计算量.仿真表明,本文算法的译码性能与现有的几种EMS改进算法非常接近;在译码复杂度方面,不管对高阶域还是低阶域的多元LDPC码,本文算法的复杂度都是最小的.  相似文献   

5.
低密度奇偶校验码(LDPC码)是一种逼近香农限的线性分组码,译码的复杂度较低;在LDPC码译码算法中性能较好的是置信传播译码(BP)算法,他能够在迭代译码过程中确定码字是否已译出,但是复杂度高,运算量大。采用一种改进的BP译码算法,在迭代译码过程中对校验节点的更新信息进行曲线拟合,以减小译码运算量,有利于硬件的并行实现,减少译码延时。仿真结果表明,改进的BP算法译码性能和原来的BP算法接近,而且复杂度较低。  相似文献   

6.
基于自身可信度的低复杂度LDPC码位翻转解码算法   总被引:2,自引:2,他引:0  
提出一种基于位翻转的低复杂度、便于硬件实现的LDPC码解码算法.该算法充分利用变量节点的本征信息来计算翻转判决函数,减少了对其它变量节点软信息的需求,因此大大降低了解码硬件实现的复杂度,同时保证翻转判决函数具有较高的可靠性.利用该算法,对RS-based LDPC码进行的仿真结果表明,改进算法的解码性能接近甚至略优于IMWBF算法.  相似文献   

7.
《无线电工程》2018,(2):121-125
LDPC码是一种具有稀疏性且接近香农极限的线性分组码。目前被广泛应用的LDPC简化算法的译码性能损失较多,译码性能和复杂度折中的算法具有重要价值。对几种已知的译码算法进行了深入研究,提出一种基于变量节点更新改进的最小和算法,该算法与最小和算法、归一化最小和算法复杂度相当,但译码性能得到约0.5 d B和0.2 d B的提高,在中高信噪比区,更加接近LLR-BP算法的性能。  相似文献   

8.
朱庆  吴乐南 《信号处理》2013,29(5):550-556
置信传播算法(BP)是低密度校验码(LDPC)一种常用的译码算法。为了改善动态调度算法(IDS)在提高BP算法译码性能时复杂度较高的缺陷,提出了一种基于校验节点的串行消息更新策略(Min2-CSBP)。该策略定义了一种基于校验节点的可靠度测度并能近似表征对应的校验节点的可靠程度。可靠度测度仅用于确定消息更新的次序,而在消息更新的计算中仍然采用精确的概率值。每次迭代中对可靠度按升序排序并按此顺序进行消息更新。随后,对Flood算法、CSBP算法、NW-RBP算法及Min2-CSBP算法进行了复杂度对比。仿真结果表明:在使用LDPC短码时,Min2-CSBP算法比Flood算法及CSBP算法显著提高了误码率性能,并减少了迭代次数。   相似文献   

9.
改进的离散字母表迭代译码算法研究   总被引:1,自引:0,他引:1  
为了优化LDPC迭代译码性能和降低算法复杂度,提出了一种改进的基于Gallager A算法的2b离散字母表迭代译码算法。在每一轮迭代中,Tanner图上的校验节点与变量节点之间所传递的消息有1b表示符号值,另1b反映码字结构特性,其中变量节点更新规则是通过查表法来实现的。在二元对称信道下针对列重为3的规则LDPC码做了仿真实验,仿真结果表明该算法性能明显优于原算法,并且具有较低的复杂度。  相似文献   

10.
姜明  王晨 《电子与信息学报》2010,32(11):2781-2784
低密度奇偶校验(LDPC)码的译码硬件实现方案大多采用计算复杂度较低的修正最小和(NMS)算法,然而对于低码率LDPC码,由于校验节点度数低,NMS算法的修正误差较大,导致其译码性能和标准的置信传播(BP)算法相比有较大差异。该文针对基于原图构造的一类低码率LDPC码,提出了在NMS迭代译码中结合震荡抵消(OSC)处理和多系数(MF)修正技术的方案。结合低码率原型图LDPC码行重分布差异较大的特点,MF修正算法可以有效地减少计算误差,从而改善译码性能。另外低码率原型图LDPC码的收敛较慢,而OSC处理则可以较好地抑制正反馈信息,进一步提高NMS算法的性能增益。仿真结果表明,对于此类低码率LDPC码, MF-OSC-NMS算法可以达到接近BP算法的性能。OSC处理和MF修正技术硬件实现简单,与NMS算法相比几乎没有增加计算复杂度,因此MF-OSC-NMS算法是译码算法复杂度和性能之间一个较好的折中处理方案。  相似文献   

11.
刘飞  黎海涛 《信号处理》2012,28(3):397-403
在多元低密度奇偶校验码(NB-LDPC)的扩展最小和译码算法(EMS)中,由于消息向量的递归计算和校验/变量节点信息之间的迭代交换,导致译码器存在较大延迟。针对此问题本文提出了一种新型译码器结构,它优化了校验节点更新单步运算单元,根据前向后向算法规则,以3路单步运算单元完成校验节点更新,硬件资源消耗略有增加,但所需时钟周期约降为一般结构的1/3;并采用全并行运算的变量节点信息更新单元,无需利用前向后向算法将更新过程分解为多个单步运算,消除了变量节点更新的递归计算,且具有低复杂度低延时等优点,并在现场可编程门阵列(FPGA)Xilinx Virtex-4 (XC4VLX200)平台上对一个GF(16)域上(480,360)的准循环多元LDPC码进行了综合仿真。仿真结果证明,设计的译码器在较小资源消耗条件下能成倍提高吞吐量。   相似文献   

12.
In this paper, a systematic approach is proposed to develop a high throughput decoder for quasi-cyclic low-density parity check (LDPC) codes, whose parity check matrix is constructed by circularly shifted identity matrices. Based on the properties of quasi-cyclic LDPC codes, the two stages of belief propagation decoding algorithm, namely, check node update and variable node update, could be overlapped and thus the overall decoding latency is reduced. To avoid the memory access conflict, the maximum concurrency of the two stages is explored by a novel scheduling algorithm. Consequently, the decoding throughput could be increased by about twice assuming dual-port memory is available.  相似文献   

13.
针对中短码长的低密度奇偶校验规则码(Low Density Parity Check, LDPC)规则码,该文采用消息更新规则改进和因子图变换方法,提出一种低复杂度差分迭代译码算法。在置信传播算法的基础上,仅当变量节点的消息值振荡时引入差分映射策略,得出一种选择性的置信差分规则,自适应地调整校验节点消息的归一化系数,提高译码性能。同时,采用展开校验节点的图变换方法,将计算复杂度从随节点度分布指数性增长降至线性增长。分别在高斯白噪声信道和瑞利衰落信道下进行仿真实验,结果表明该算法和基于图变换的其他低复杂度译码算法相比,性能优越且复杂度低,和对数似然比的置信传播算法(LLR-BP)相比,高信噪比区域内的性能优异,低信噪比区域内的计算复杂度明显降低。  相似文献   

14.
为了降低多元LDPC(Low Density Parity Check Code)码网格最小最大(Trellis Min-Max,T-MM)译码算法复杂度,减少译码过程中所需存储空间,提出一种基于额外列的T-MM译码算法(Extra-Column-based Trellis Min-Max,EC-T-MM).选取网格中可靠度最高的信息构造出优化的配置集,生成一列用于更新校验节点的q维额外列信息,再根据网格路径中偏移量信息,从最小值、次小值和额外列信息中得到校验节点的外在输出信息,通过网格的路径优化降低校验节点的更新复杂度.在译码过程中,用偏移量信息代替所有变量节点输入信息,减少存储空间.仿真结果表明:该算法在几乎不损失性能的前提下,降低了计算复杂度及所需的存储空间.  相似文献   

15.
This letter investigates the combination of the Chase‐2 and sum‐product (SP) algorithms for low‐density parity‐check (LDPC) codes. A simple modification of the tanh rule for check node update is given, which incorporates test error patterns (TEPs) used in the Chase algorithm into SP decoding of LDPC codes. Moreover, a simple yet effective approach is proposed to construct TEPs for dealing with decoding failures with low‐weight syndromes. Simulation results show that the proposed algorithm is effective in improving both the waterfall and error floor performance of LDPC codes.  相似文献   

16.
A simple, yet effective decoding algorithm is proposed for low-density parity-check (LDPC) codes, which significantly simplifies the check node update computation of the optimal sum-product algorithm. It achieves essentially optimal performance by applying scaling in the decoder?s extrinsic information. If no such scaling is applied, then the proposed algorithm has small performance degradation, e.g. in the order of 0.1 to 0.2 dB, depending on the coded block size.  相似文献   

17.
为了加快低密度奇偶校验(LDPC)码的译码速度,有效改善LDPC码的译码性能,针对校验节点更新过程中的对数似然比(LLR)值的大小,设计了一种LDPC码的动态加权译码方法。以IEEE 802.16e标准的奇偶校验矩阵为例,根据LLR值的变化规律,利用增长因子和抑制因子对和积译码算法和最小和译码算法进行动态加权。仿真结果显示,基于动态加权的译码方法相对于传统译码方法误码率都有明显改进,译码复杂度也有所降低。  相似文献   

18.
Broadband satellite services to fixed terminals are currently offered in the forward link by the 2nd generation (2G) digital video broadcasting satellite (DVB-S2) standard. For this standard the use of powerful low-density parity-check (LDPC) error correcting codes has been adopted performing within approximately 1 dB from the Shannon capacity limit. This paper studies and compares for the first time in a systematic manner different approximation methods used in check node update computation of DVB-S2 LDPC decoding with the aim of reducing computational complexity. Various performance evaluation results are presented for a wide range of DVB-S2 parameters, such as LDPC codeword size, coding rate, modulation format and including several decoding algorithms. It is shown that the proposed check node update approximations have a robust behavior, i.e. the resulting performance is quite independent of the DVB-S2 modulation and coding parameters. It is further shown that these approximations perform very close to the optimal sum-product algorithm (SPA) in degradation, which is less than 0.2 dB. Despite this small degradation, the reduction in computational complexity compared to the optimal SPA is significant and can be as high as 40% in computational time savings.  相似文献   

19.
Low‐density parity‐check (LDPC) codes are very powerful error‐correction codes with capabilities approaching the Shannon's limits. In evaluating the error performance of an LDPC code, the computer simulation time taken becomes a primary concern when tens of millions of noise‐corrupted codewords are to be decoded, particularly for codes with very long lengths. In this paper, we propose modeling the parity‐check matrix of an LDPC code with compressed parity‐check matrices in the check‐node domain (CND) and in the bit‐node domain (BND), respectively. Based on the compressed parity‐check matrices, we created two message matrices, one in the CND and another in the BND, and two domain conversion matrices, one from CND to BND and another from BND to CND. With the proposed message matrices, the data used in the iterative LDPC decoding algorithm can be closely packed and stored within a small memory size. Consequently, such data can be mostly stored in the cache memory, reducing the need for the central processing unit to access the random access memory and hence improving the simulation time significantly. Furthermore, the messages in one domain can be easily converted to another domain with the use of the conversion matrices, facilitating the central processing unit to access and update the messages. Copyright © 2011 John Wiley & Sons, Ltd.  相似文献   

20.
李昕  李喆 《电子学报》2010,38(4):870-0874
 寻找可用网关是MANET接入Internet过程中产生开销最大的一个环节。为了有效控制接入过程中的路由开销,根据蚂蚁寻径与移动节点寻找网关的相似性,提出了一种基于网关信息素更新的接入网络开销控制算法。该算法模仿蚁群算法中信息素更新方式,运用路由应答报文中携带的信息对网关信息素进行更新。节点在寻路时根据路径上的信息素浓度、链路带宽和时延等参数计算转发概率并进行转发。通过运用NS2.29对该算法进行仿真,结果表明该算法虽然平均端到端时延略有增加,但是有效地减少了归一化路由开销,并提高了分组投递率,验证了算法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号