首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3150篇
  免费   499篇
  国内免费   324篇
电工技术   97篇
综合类   524篇
化学工业   9篇
金属工艺   9篇
机械仪表   59篇
建筑科学   19篇
矿业工程   8篇
轻工业   32篇
水利工程   3篇
石油天然气   7篇
武器工业   7篇
无线电   1065篇
一般工业技术   143篇
冶金工业   229篇
自动化技术   1762篇
  2024年   3篇
  2023年   39篇
  2022年   66篇
  2021年   78篇
  2020年   74篇
  2019年   73篇
  2018年   52篇
  2017年   60篇
  2016年   67篇
  2015年   105篇
  2014年   179篇
  2013年   157篇
  2012年   226篇
  2011年   267篇
  2010年   226篇
  2009年   219篇
  2008年   230篇
  2007年   286篇
  2006年   249篇
  2005年   224篇
  2004年   199篇
  2003年   165篇
  2002年   150篇
  2001年   109篇
  2000年   99篇
  1999年   61篇
  1998年   56篇
  1997年   62篇
  1996年   33篇
  1995年   25篇
  1994年   29篇
  1993年   18篇
  1992年   8篇
  1991年   7篇
  1990年   12篇
  1989年   6篇
  1987年   2篇
  1986年   5篇
  1985年   4篇
  1984年   4篇
  1983年   3篇
  1982年   4篇
  1981年   3篇
  1965年   3篇
  1964年   3篇
  1963年   2篇
  1959年   3篇
  1957年   3篇
  1956年   4篇
  1955年   4篇
排序方式: 共有3973条查询结果,搜索用时 15 毫秒
1.
随着语音诈骗事件的发生, 自动说话人验证系统已被广泛应用。传统的检测合成语音的方法包括利用频谱信息、倒谱系数特征以及动态声学特征等。随着机器学习的发展, 深度学习算法也被应用于合成语音检测且取得了不错的成果。介绍了几种检测方法的基本原理及部分研究成果, 并对以后的发展方向进行了展望。  相似文献   
2.
现有的数字语音取证研究主要集中于对单一的某种操作进行检测,无法对不相关的操作进行判断。针对该问题,提出了一种能够同时检测经过变调、低通滤波、高通滤波和加噪这四种操作的数字语音取证方法。首先,计算语音的归一化梅尔频率倒谱系数(MFCC)统计矩特征;然后通过多个二分类器对特征进行训练,并组合投票得到多分类器;最后使用该多分类器对待测语音进行分类。在TIMIT以及UME语音库上的实验结果表明,归一化MFCC统计矩特征在库内实验中均达到了97%以上的检测率,且在对MP3压缩鲁棒性测试的实验中,检测率仍能保持在96%以上。  相似文献   
3.
In the training of speech enhancement models based on the deep neural network (DNN), the mean square error is generally adopted as the cost function, which is not optimized for the speech enhancement problem. In view of this problem, to consider the correlation between the adjacent frames of the network’s output and the presence of the speech component in each time-frequency unit, by correlating the adjacent frames of the network’s output and designing a perceptual coefficient related to the presence of the speech component in time-frequency units in the cost function, a speech enhancement method based on the joint optimization DNN is proposed. Experimental results show that compared with the speech enhancement method based on the mean square error, the proposed method significantly improves the quality and intelligibility of the enhanced speech and has a better speech enhancement performance.  相似文献   
4.
针对目前语音语料人工标注效率低的问题,提出了一种朝鲜语连续语音语料的音节自动切分方法.该方法首先采用Seneff听觉模型提取音频的包络检测响应和广义同步检测响应等特征参数,其次结合朝鲜语发音特点确定音节的候选边界位置,最后通过静音段和摩擦音检测消除虚假边界,以提高边界检测的准确率.实验结果表明,该朝鲜语语音语料音节自动切分方法的准确率(93.56%)比传统的基于Seneff听觉模型的分割算法提高了14.59%,召回率(86.43%)比传统的基于Seneff听觉模型的分割算法降低了1.69%; 因此,本文算法总体优于传统的基于Seneff听觉模型的分割算法.  相似文献   
5.
Deep Attractor Network (DANet) is the state-of-the-art technique in speech separation field, which uses Bidirectional Long Short-Term Memory (BLSTM), but the complexity of the DANet model is very high. In this paper, a simplified and powerful DANet model is proposed using Bidirectional Gated neural network (BGRU) instead of BLSTM. The Gaussian Mixture Model (GMM) other than the k-means was applied in DANet as a clustering algorithm to reduce the complexity and increase the learning speed and accuracy. The metrics used in this paper are Signal to Distortion Ratio (SDR), Signal to Interference Ratio (SIR), Signal to Artifact Ratio (SAR), and Perceptual Evaluation Speech Quality (PESQ) score. Two speaker mixture datasets from TIMIT corpus were prepared to evaluate the proposed model, and the system achieved 12.3 dB and 2.94 for SDR and PESQ scores respectively, which were better than the original DANet model. Other improvements were 20.7% and 17.9% in the number of parameters and time training respectively. The model was applied on mixed Arabic speech signals and the results were better than that in English.  相似文献   
6.
To construct an effective emotion recognition system, the emotions of joy, sadness, anger and neutrality are induced by sound stimulation, and the corresponding speech and EEG signals are collected. First, this paper extracts the nonlinear geometric feature and nonlinear attribute feature of EEG and speech signals by phase space reconstruction respectively, and the emotion recognition is realized by combining the basic features. Then, a feature fusion algorithm based on the Restricted Boltzmann Machine is constructed to realize multimodal emotion recognition from the perspective of feature fusion. Finally, a multimodal emotion recognition system is constructed through decision fusion by using the quadratic decision algorithm. The results show that the overall recognition rate of the multimodal emotion recognition system constructed by feature fusion is 1.08% and 2.75% higher than that of speech signals and that of EEG signals respectively, and that the overall recognition rate of the multimodal emotion recognition system constructed by decision fusion is 6.52% and 8.19% higher than that of speech signals and that of EEG signals respectively. The overall recognition effect of the multimodal emotion recognition system based on decision fusion is better than that of feature fusion. A more effective emotion recognition system can be constructed by combining the emotional data of different channels such as speech signals and EEG signals.  相似文献   
7.
为降低企业自动化设备操作的复杂性,提高工业生产效率,设计了一种基于SAPI(The Microsoft Speech API)的双驱双向AGV语音控制系统。以微软的Speech SDK5.1语音包为基础,将语音信息采集和识别,并结合双驱双向AGV底层运动控制函数库,实现了用现场语音控制双驱双向AGV的运动。结果表明,该系统语音模块具有较高识别率,在安静环境下的正确识别率达90%,能够满足双驱双向AGV语音控制的要求,具有广泛的应用前景。  相似文献   
8.
主要针对文本提示型说话人识别中语音切分高精确度要求的问题,在利用Viterbi算法的语音切分基础上,提出了向后平滑搜索多帧能量极小值的语音切分方法。该算法首先对0~9的每个数字建立模型,然后利用Viterbi算法对随机数字串进行切分得到初始切分点,最后利用搜索多帧能量极小值的方法更新原始切分点。实验表明,相比于传统的切分算法,在误差范围小于20 ms之内,改进算法的切分准确率由82.1%提高到88%。  相似文献   
9.
【】响度平衡是语言录音教材产品录制加工中的重要工作,但也是常被忽视的环节。本文通过对人耳主观响度的特征、主观响度的计量与监控以及录音环节中影响信号响度的因素等多个角度的分析,深入探讨了语言录音教材产品录制加工中响度平衡的原则和方法,力图为高质量的语音教材的生产提供有力的参考。  相似文献   
10.
语音信号在较高的采样率下,采样数据具有冗余度。对于秘密语音信号,冗余度越大,算法的嵌入率越低。本文结合信号抽取插值方法,对已有的语音融合隐藏算法提出进一步的改进,以减小秘密语音的冗余度,提高算法的嵌入率。利用高质量的计算机网络这一信息传输途径,进行实验仿真,并从主客观两方面对算法的性能进行评估。实验结果表明,利用本文改进算法,秘密语音的嵌入率得到提高,且恢复的秘密语音信号质量较好,PESQ打分在4.0左右,可懂度高。算法具有较高的可行性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号