首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
一种H.264视频流自适应率失真优化编码算法   总被引:1,自引:0,他引:1  
为了提高编码视频流在丢包网络环境中的抗误码性能,目前比较常用的是采用帧内刷新算法.在率失真框架之内的帧内优化编码刷新算法,则被认为是更为直接和有效的解决办法.在视频编码标准H.264/JVT中采用的就是这种算法.然而由于没有考虑到信道丢包率对编码器端进行仿真解码次数的影响,从而导致在进行率失真优化编码时的计算量较大,编码耗时较长,严重影响了编码器的编码效率.基于以上分析,提出了一种改进的自适应率失真优化编码算法.将H.264标准率失真优化编码算法中计算解码器端视频帧期望失真度的代数平均值算法,改进为加权平均值算法.仿真实验表明,提出的算法可根据信道丢包率和模拟信道状态个数信息来自适应地决定编码器端进行仿真解码计算的次数,从而有效降低H.264标准率失真优化编码算法中的计算冗余和计算复杂度,节省编码耗时.在模拟信道状态个数默认为30个时,本算法最多可节省近55%的编码耗时.  相似文献   

2.
周琳  吴镇扬 《电子与信息学报》2009,31(10):2427-2431
信源信道联合解码算法中的迭代信道解码需要进行比特似然值和概率值转换,以及联乘、累加运算,增加了信道解码的计算复杂度,该文针对这一问题,直接利用信道解码的比特硬判决值和参数的先验概率,估计比特的外信息,用于迭代信道解码。基于高斯-马尔可夫信源参数的仿真实验表明,该简化算法大大降低了迭代信道解码算法的计算复杂度。与独立解码算法相比,简化的联合解码算法明显改善了接收参数的信噪比,同时不会明显降低原迭代结构解码算法的性能。  相似文献   

3.
李建平  梁庆林 《电子学报》2003,31(12):1847-1850
Turbo码采用修正的BAHL et al.算法实现解码.这是一种基于软值的概率迭代解码算法.本文在保持Turbo码迭代软解码算法优点的基础上,充分利用Turbo码编码器结构这一确知条件,结合代数解码原理,提出了一种Turbo码概率-代数联合解码算法.该算法结合了概率解码和代数解码的优点,又有效避免了误差传播的发生,使Turbo码的纠错性能在原经典算法的基础上得到进一步的提高.该算法不仅为降低Turbo码的比特误码率和误差地板值提供了一种新的研究途径,而且因其更好的纠错性能而具有十分明显的实用价值.仿真实验结果显示,在比特误码率(BER)为10-3~10-4时,与经典Turbo码解码算法相比,采用该算法能获得0.1dB左右的编码增益.  相似文献   

4.
袁涛  谢坚戈  鲍园  杨亮 《电信科学》2011,27(12):44-47
针对复数域网络编码中继网络,提出一种改进的中继处的最大似然解码算法。当传统的最大似然解码算法使用在复数域网络编码中继网络中时,计算复杂度会随着信息星座图映射方式的改变而大大增加。为了降低计算复杂度,在前人研究的基础上提出一种改进的最大似然解码算法,该算法利用无线中继网络通信系统的非对称性,在解码时,先进行预判决,然后进行精确判决,这样可以大大降低计算复杂度,提高了系统性能。  相似文献   

5.
针对分布式视频编码在误码环境下部分比特面解码失败,单一区间重建导致视频质量下降的情况,提出了一种多量化区间优化重建算法。该算法充分利用所有连续或不连续的正确解码比特面进行重组,从而得到多个候选的量化区间,并根据边信息与这些区间的位置关系找出最佳的解码区间。相较于传统的单一区间的重建算法,在误码环境中该算法可以更准确地重建出正确解码值。实验结果表明,所提出的算法性能明显优于单一区间的重建算法,在错误比特面错误率相同时,所提算法解码视频的峰值信噪比最大分别有1.2 dB和3.0 dB左右的提升。  相似文献   

6.
针对分布式视频编码在误码环境下部分比特面解码失败,单一区间重建导致视频质量下降的情况,提出了一种多量化区间优化重建算法。该算法充分利用所有连续或不连续的正确解码比特面进行重组,从而得到多个候选的量化区间,并根据边信息与这些区间的位置关系找出最佳的解码区间。相较于传统的单一区间的重建算法,在误码环境中该算法可以更准确地重建出正确解码值。实验结果表明,所提出的算法性能明显优于单一区间的重建算法,在错误比特面错误率相同时,所提算法解码视频的峰值信噪比最大分别有1.2 dB和3.0 dB左右的提升。  相似文献   

7.
未知相位信道下 Turbo码编码DPSK信号的联合迭代解调解码   总被引:1,自引:0,他引:1  
吴晓富  凌聪  吕晶 《电子学报》2002,30(1):97-101
本文提出了未知相位信道下Turbo码编码DPSK信号的联合迭代解调解码算法 .推导了未知相位信道的最大后验概率 (MAP)算法 ,推导表明该MAP算法同样可用前向、后向递推方程来有效实现 .其次 ,采用等效信道的方法将未知相位信道的Turbo码解码问题化为AWGN信道下Turbo码的解码问题 .最后 ,引进了联合迭代解调解码算法 ,可用于Turbo码的解调解码 .模拟表明本文算法可有效用于未知相位信道Turbo码的解码  相似文献   

8.
分布式视频解码器端的码率估计算法   总被引:1,自引:0,他引:1       下载免费PDF全文
封颖  李云松  吴成柯  宋锐 《电子学报》2009,37(6):1232-1236
 比较了目前分布式视频系统的各种码率估计算法性能,并提出了改进的码率估计算法.本文算法位于解码器端,利用边信息和差值分布的概率模型以及高位比特对编码比特平面的码率进行估计,并将估计码率通过反馈信道传送到编码器.实验结果表明,本文算法估计每比特码率与理想情况估计值误差±0.02以内,有效地提高了码率估计的精度,从而降低了解码器的计算复杂度.  相似文献   

9.
在采用多元LDPC码的通信系统中,尤其当使用高阶调制方案时,输入到译码器中的似然概率计算复杂度非常高。其主要原因是由于似然概率通常是关于信道输出的复杂函数,其计算需已知信道参数。针对上述问题,提出了一种低复杂度的近似似然概率生成算法。依据接收信号和星座点之间的欧氏距离,将星座点所对应的有限域GF(q)上域元素的似然概率进行分块逼近,能够以较低复杂度快速生成译码器所需要的概率度量。仿真结果表明,所提出的分块似然概率逼近生成算法在译码性能上损失较小且极大降低了似然概率生成的计算复杂度,是一种适用于高速多元LDPC译码器前端实现的候选算法。  相似文献   

10.
通过联合界技术较为详细地给出了Turbo乘积码的最大似然译码限,并比较了在星间光通信链路中Turbo乘积码和Turbo卷积码及传统级联码的纠错性能.研究表明,Turbo乘积码的纠错性能优于传统级联码以及Turbo卷积码.  相似文献   

11.
JPEG2000图像的编、解码是逐个位平面进行的,因此码流中任何的数据丢失都会影响最后的位平面及对应的小波系数.为了解决这一问题,JPEG2000标准中将错误的小波系数以零替换,但这一替换将影响很多非零系数,造成某些高频成分丢失.本文结合JPEG2000码流的特点提出一种新的错误修复算法.该算法将根据子带间和未损坏的位平面信息来修复损坏的位平面数据.试验结果表明所提出算法比现有算法的信噪比改进1~3个dB.  相似文献   

12.
基于JPEG2000采用的最优截断嵌入式块编码的多通道扫描特性,提出了分数比特面提升的感兴趣区域(region ofinterest,ROI)编码算法,与现有基于比特面提升的同类算法相比,新算法不但可以更为精细地控制ROI图像质量,同时还支持多ROI编码和交互式ROI.仿真结果表明新算法对ROI图像质量的控制效果显著.  相似文献   

13.
无反馈分布式视频编码中码率分配算法研究   总被引:1,自引:0,他引:1       下载免费PDF全文
夏北吨  杨春玲 《电子学报》2014,42(10):1938-1943
码率分配是无反馈分布式视频编码中的关键技术之一.本文研究编码端快速边信息生成方法,基于边信息和Wyner-Ziv帧各个位平面误码率,提出了一种编码端码率分配算法(Bitplane Error Probability based Encoder Rate Control,BEP_ERC).还提出在编码端精确估计拉普拉斯-柯西混合分布(Laplace-Cauchy Mixture Distribution,LCMD)模型参数α和μ的思想.实验表明本文算法与现有算法相比,率失真性能提升0.1~0.4dB,且降低了编码端计算复杂度.  相似文献   

14.
褚晨元  廖晓峰  周庆 《通信技术》2007,40(11):286-287,290
文中主要介绍了一种基于行程长的无损选择加密方法,首先对图像住平面采用行程长编码,再过滤掉对图像的主体部分不构成影响的短行程,使得所需加密的内容减少,然后对所选的内容进行AES或者基于LFSR的流密码加密,最后对加密方案作了安全性评估,表明这是一个快速安全的选择加密算法.  相似文献   

15.
基于干涉多光谱图像成像原理和特点,提出一种干涉多光谱图像无损压缩算法。在压缩编码时,应充分利用图像的列相关性,采用基于列的比特平面编码和游程编码,对多光谱图像进行无损压缩,特别适于低分辨率的多光谱图像压缩。目前无损压缩算法的压缩比基本在1.6~2.4之间,本算法的压缩倍数一般可达到2倍以上,并且具有良好的抗误码性能。  相似文献   

16.
Scanning orders of bitplane image coding engines are commonly envisaged from theoretical or experimental insights and assessed in practice in terms of coding performance. This paper evaluates classic scanning strategies of modern bitplane image codecs using several theoretical-practical mechanisms conceived from rate-distortion theory. The use of these mechanisms allows distinguishing those features of the bitplane coder that are essential from those that are not. This discernment can aid the design of new bitplane coding engines with some special purposes and/or requirements. To emphasize this point, a low-complexity scanning strategy is proposed. Experimental evidence illustrates, assesses, and validates the proposed mechanisms and scanning orders.  相似文献   

17.
High-rate concatenated coding systems with bandwidth-efficient trellis inner codes and Reed-Solomon (RS) outer codes are investigated for application in high-speed satellite communication systems. Two concatenated coding schemes are proposed. In one the inner code is decoded with soft-decision Viterbi decoding, and the outer RS code performs error-correction-only decoding (decoding without side information). In the other the inner code is decoded with a modified Viterbi algorithm, which produces reliability information along with the decoded output. In this algorithm, path metrics are used to estimate the entire information sequence, whereas branch metrics are used to provide reliability information on the decoded sequence. This information is used to erase unreliable bits in the decoded output. An errors-and-erasures RS decoder is then used for the outer code. The two schemes have been proposed for high-speed data communication on NASA satellite channels. The rates considered are at least double those used in current NASA systems, and the results indicate that high system reliability can still be achieved  相似文献   

18.
In this paper, a new binary arithmetic coding strategy with adaptive-weight context classification is introduced to solve the context dilution and context quantization problems for bitplane coding. In our method, the weight, obtained using a regressive–prediction algorithm, represents the degree of importance of the current coefficient/block in the wavelet transform domain. Regarding the weights as contexts, the coder reduces the context number by classifying the weights using the Lloyd–Max algorithm, such that high-order is approximated as low-order context arithmetic coding. The experimental results show that our method effectively improves the arithmetic coding performance and outperforms the compression performances of SPECK, SPIHT and JPEG2000.  相似文献   

19.
We introduce a deblocking algorithm for Joint Photographic Experts Group (JPEG) decoded images using the wavelet transform modulus maxima (WTMM) representation. Under the WTMM representation, we can characterize the blocking effect of a JPEG decoded image as: (1) small modulus maxima at block boundaries over smooth regions; (2) noise or irregular structures near strong edges; and (3) corrupted edges across block boundaries. The WTMM representation not only provides characterization of the blocking effect, but also enables simple and local operations to reduce the adverse effect due to this problem. The proposed algorithm first performs a segmentation on a JPEG decoded image to identify the texture regions by noting that their WTMM have small variation in regularity. We do not process the modulus maxima of these regions, to avoid the image texture being "oversmoothed" by the algorithm. Then, the singularities in the remaining regions of the blocky image and the small modulus maxima at block boundaries are removed. We link up the corrupted edges, and regularize the phase of modulus maxima as well as the magnitude of strong edges. Finally, the image is reconstructed using the projection onto convex set (POCS) technique on the processed WTMM of that JPEG decoded image. This simple algorithm improves the quality of a JPEG decoded image in the senses of the signal-to-noise ratio (SNR) as well as the visual quality. We also compare the performance of our algorithm to the previous approaches, such as CLS and POCS methods. The most remarkable advantage of the WTMM deblocking algorithm is that we can directly process the edges and texture of an image using its WTMM representation.  相似文献   

20.
SOVA算法对Viterbi算法的修正   总被引:1,自引:0,他引:1  
在Viterbi算法中引入软值进行修正之后的算法称作SOVA算法(Soft Output Viterbi Algorithm)。SOVA算法在Viterbi算法的基础上,路径量度引入了比特先验信息,对每位译码比特以后验概率似然比的形式提供软输出,因而可提供更高的译码性能。特别,SOVA算法可用于级联码的迭代译码,采用Tuobo原理使不同分量码之间交换软信息,从而可显著提高这类码的纠错能力。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号