首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
2.
为了能较为全面地描述语音信号的特征信息,提高伪装检测率,提出了一种基于均匀局部二值模式纹理特征与常数Q倒谱系数声学特征相结合,并以随机森林为分类模型的伪装语音检测方法。利用均匀局部二值模式提取语音信号语谱图中的纹理特征矢量,并与常数Q倒谱系数构成联合特征,再用所获得的联合特征矢量训练随机森林分类器,从而实现了伪装语音检测。实验中,分别对其他特征参数以及支持向量机分类器模型所构建的几种伪装检测系统进行了性能对照,结果表明,所提联合特征与随机森林模型相结合的语音伪装检测系统具有最优的检测性能。  相似文献   

3.
4.
由于语音合成的便利性,合成伪装语音对说话人认证系统的安全构成了很大的威胁.为了进一步提升说话人认证系统的伪装语音检测能力,提出了一种利用语谱图频域信息的合成语音检测方法,它通过局部相位量化算法对语谱图频域信息进行描述.首先,将语谱图分为若干子块,然后对每个子块进行局部相位量化,经直方图统计分析后获得局部相位量化特征向量并将该特征向量作为随机森林分类器的输入特征,实现合成语音检测.实验结果表明,该方法进一步降低了合成语音检测系统的串联检测代价数值,并且具有更强的泛化能力.  相似文献   

5.
徐嘉  简志华  金宏辉  吴超 《电信科学》2023,39(11):107-115
针对传统的声学特征参数对合成语音伪装检测时存在的准确度低、未知类型合成语音检测效果较差、在噪声环境中表现欠佳的情况,提出了一种采用恒Q调制包络(constant Q modulation envelope,CQME)的合成伪装语音检测方法.该方法基于语音时域包络中包含的丰富信息,而合成语音与真实语音的包络在细节上存在较大差异,利用恒Q变换(constant Q transform,CQT)得到语音调制包络谱,并计算每个频率成分的均方根,获得CQME特征向量.再用该特征向量训练随机森林分类器,实现真伪语音的判别.实验结果表明,在ASVspoof 2019数据集上,CQME特征训练的随机森林具有较高的检测性能,对未知类型的合成语音也具有较好的检测效果.并且在多种噪声条件下,该方法仍表现出较高的检测性能,具有很好的噪声鲁棒性.  相似文献   

6.
本文针对单样本情况下传统人脸识别方法在姿态、表情和光照等变化下识别效果不佳的问题,提出一种基于单演主方向中心对称局部二值模式的单样本人脸识别模式的单样本人脸识别算法.首先用多尺度的单演滤波器提取人脸图像单演局部幅值和局部方向信息,并求取主方向,生成主方向模式图;然后用CS-LBP算子进行编码,得到特征;最后对不同单演尺度空间中的特征分块统计特征直方图并运用直方图相交进行分类识别.在AR、Extend Yale B人脸数据库的实验结果表明,该算法简单有效,对光照、表情、部分遮挡变化具有较好的鲁棒性.  相似文献   

7.
如今互联网已经逐渐渗透到人们生活的诸多方面,成为日常通信的重要途径。信息隐藏作为一种通信技术,通过将秘密信息嵌入常见载体中以达到隐蔽通信的目的。图像隐写是利用图像作为载体进行信息隐藏的一门技术与科学,YASS(Yet Another SteganographicScheme that Resists Blind Steganalysis)通过随机选取图像的子块进行DCT变换和QIM信息嵌入,具有较高的安全性。文中通过引入图像的局部二值模式(LBP)这一概念,根据YASS算法特点,分析图像的局部纹理变化,改进局部二值模式,利用局部有序对比模式(LOCP)的特征进行隐写分析。通过大量实验表明,相比传统的YASS隐写分析,文中所提方法在分析检测正确率等方面都有更好的效果。  相似文献   

8.
谱特征在语音情感识别中起到了重要的作用,然而现有的谱特征仍未能充分表达谱图中的语音情感信息.为研究语音情感与谱图之间的联系,提出了一种面向语音情感识别的Gabor分块局部二值模式特征(GBLBP)。首先,获取情感语音的对数能量谱;然后,采用多尺度,多方向的Gabor小波对对数能量谱进行处理,得到Gabor谱图;再次,对每张Gabor谱图进行分块,采用局部二值模式提取每个块的局部能量分布信息;最后,将提取到的所有特征级联,得到GBLBP特征。Berlin库上的实验结果表明:GBLBP特征的平均加权召回率比MFCC高了9%,识别性能显著优于众多谱特征,且与现有声学特征有较好的融合性。   相似文献   

9.
基于局部三值微分模式的人脸识别方法   总被引:1,自引:0,他引:1       下载免费PDF全文
为了减轻噪声干扰,提取更为丰富的人脸鉴别特征,提出了局部三值微分模式算子。通过判断近邻像素灰度值是否在某个范围内对当前像素的局部微分模式从二值扩展到三值,然后将扩展后编码的Uniform模式的空间直方图依次相连形成人脸的特征向量,采用卡方统计算样本相似度并进行分类。在ORL、Yale和CAS-PEAL-R1人脸数据库上的实验结果表明,提出的算法的识别性能优于局部二值模式和局部微分模式。  相似文献   

10.
基于局部边缘二值模式的图像检索   总被引:4,自引:4,他引:0  
在定义局部边缘的基础上提出了局部边缘二值模式(LEBP),并结合Gabor滤波器将其扩展到多分辨率LEBP(MLEBP)。对传统的中心对称局部二值模式(CS-LBP)和方向局部二值模式(D-LBP)进行了改进,新描述符在不增加计算复杂度和提高特征维数的基础上,进一步融入了局部边缘信息。为验证新描述符的性能,采用3个通用的纹理图像库进行图像检索实验。结果表明,结合本文方法,明显提高了传统描述符的分辨能力。  相似文献   

11.
针对手机、电话的短语音文本无关说话人确认,本文设计了一种基于分类GMM-UBM(CGMM-UBM)的说话人确认系统。用k-means算法将训练背景模型的语音参数集分类成若干个子空间,并据此进行目标说话人语音数据的子空间分类,再采用GMM-UBM结构为每个子空间分别建立一个子系统,以各个子系统输出评分的线性加权作为系统的输出评分。分类后的模型可以采用较低的混合度,线性加权增强了贡献较大子空间对确认性能的作用。在NIST’03语音库上100个男性话者的实验表明,短语音条件下,分类系统的性能比不分类系统有显著的改进,运算效率较后者也提高很多。  相似文献   

12.
加性噪声条件下鲁棒说话人确认   总被引:1,自引:0,他引:1  
张二华  王明合  唐振民 《电子学报》2019,47(6):1244-1250
基于非负矩阵分解的语音去噪,在提高语音信号信噪比的同时,也会引起语音失真,从而导致噪声环境下说话人确认系统性能下降.本文提出基于分区约束非负矩阵分解的语音去噪方法(Nonnegative Matrix Factorization with Partial Constrains,PCNMF),目的是在未知和非平稳噪声条件下提高话人确认系统的鲁棒性.PCNMF在满足分区约束条件的基础上分别构建语音字典和噪声字典.考虑到传统语音训练产生的语音字典往往含有一定的噪声成分,PCNMF通过数学模型产生基音及泛音频谱,在此基础上利用该频谱模仿人声的共振峰结构来合成字典,从而保证语音字典纯净性.另一方面,为了克服传统噪声字典构建方法带来的部分噪声信息丢失问题,PCNMF对在线分离出的噪声样本进行分帧和短时傅里叶变换,然后以帧为单位线性组合生成噪声字典.性能评估实验引入了多种噪声类型,实验结果表明PCNMF可有效提高说话人确认系统的鲁棒性,特别是在未知和非平稳噪声条件下其等错率相比基线系统(Multi-Condition)平均降低了5.2%.  相似文献   

13.
Position-spoofing-based attacks seriously threaten the security of Vehicular Ad Hoc Network(VANET).An effective solution to detect position spoofing is location verification.However,since vehicles move fast and the topology changes quickly in VANET,the static location verification method in Wireless Sensor Network(WSN) is not suitable for VANET.Taking into account the dynamic changing topology of VANET and collusion,we propose a Time-Slice-based Location Verification scheme,named TSLV,to resist position spo...  相似文献   

14.
    
In this paper, we propose a speaker indexing method using speaker verification technique to extract one desired speaker's utterances from conversational speech. To solve the overlapped speech problem, we construct overlapped speech models with the observed conversational speech itself. The overlapped speech models include overlapped speech of target and cohort speaker, and speech model of two cohort speakers. In order to evaluate the proposed method, we made a simulated conversational speech that has up to 50% overlapping segments. The equal error rate was reduced by up to 43.7% compared with the conventional methods that use a target speaker model only, and use a target model and overlapped speech model trained with a speaker independent of large speech database.  相似文献   

15.
说话人识别的几种方法   总被引:4,自引:1,他引:4  
宁飞  陈频 《电声技术》2001,(12):9-14
以说话人识别的几个关键问题为纲,说明了国内外现有的识别方法和结果,以及存在的问题和难点,并提出了一些新想法。  相似文献   

16.
循环相关匹配滤波器设计   总被引:10,自引:0,他引:10  
李虎生  刘加  刘润生 《电子学报》2003,31(1):103-108
在谱相关分析的基础上,讨论了对循环平稳信号进行最佳滤波的问题,推导得到了基于最大输出信噪比准则的循环相关匹配滤波器的解析表式.然而,由于该滤波器性能与所选取的循环频率是相关的,单循环频率循环相关匹配滤波器存在固有的缺陷-信号能量利用不充分.为此,研究了多循环频率循环相关匹配滤波器组的设计方法,在最大输出信噪比准则约束下确定了滤波器组的优化结构.仿真实验比较了谱相关分析方法和循环相关匹配滤波方法,对调幅信号和BPSK信号的仿真实验结果证实了文章理论分析得到的结果.  相似文献   

17.
邮包校核语音识别系统的实时实现   总被引:6,自引:0,他引:6       下载免费PDF全文
本文研究开发了一套邮包信息校核语音识别系统.该系统利用中大词汇量非特定人连续语音识别技术实时实现了邮包信息的语音校核.系统可以识别普通话或四川话语音,可识别的词汇量约为4500条.系统还采用了拒识技术与说话人自适应技术,提高了整个系统的稳健性.实验表明对普通话的首选识别率达到98.7%,前三选识别率达到99.9%.对四川话的首选识别率达到95.9%,前三选识别率达到98.6%,对无关语音的正确拒识率达到85%,对口音较重的说话人经过自适应后识别率可提高5-8个百分点.  相似文献   

18.
声纹识别技术及其应用   总被引:3,自引:1,他引:2  
杨阳  陈永明 《电声技术》2007,31(2):45-46,50
声纹是生物特征的一种,对于人体来说,声纹是长期稳定的特征信号,通过声纹鉴别技术可以区分不同个体。介绍了声纹、声纹识别的概念和原理;指出了声纹识别技术的应用范围和前景。  相似文献   

19.
用神经计算机的说话人确认系统及其应用   总被引:5,自引:1,他引:5  
在国产CASSANDRA-I小型神经计算机基础上实现了一种说话人确认(Speaker Verification)系统,其性能优于Veritron1000系统,与美国AT&T研制的Voice Password Verifier System相当,文中介绍了其结构和测验结果,并讨论了在国民经济中的可能途径。  相似文献   

20.
基于说话人分类技术的分级说话人识别研究   总被引:3,自引:0,他引:3       下载免费PDF全文
刘文举  孙兵  钟秋海 《电子学报》2005,33(7):1230-1233
识别正确率和抗噪性能固然是说话人识别的研究重点,但识别响应速度也是决定系统实用化的关键所在.本文成功地提出了基于说话人分类技术的分级说话人辨识方法,极大地提高了系统运行速度,随着注册说话人数的增多,较之传统的说话人辨识方法,其优势更加明显.同时在说话人确认中,该方法的使用,进一步提高了确认的正确率,有效地降低了错误接受和错误拒绝率.本文提出的可信度打分方法,也一定程度上改进了系统的性能.实验表明:基于说话人分类技术的说话人辨识方法使系统的运行速度平均提高了3.5倍,对说话人确认等误识率和最小误识率平均下降了53.75%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号