排序方式: 共有38条查询结果,搜索用时 15 毫秒
11.
提出了将语音帧符号化后度量语音相似性的方法.首先,去除语音段中的静音部分,并提取每帧语音的MFCC参数;其次,将MFCC参数进行k均值聚类和KNN分类,并根据分类结果对语音信号进行符号化;最后,采用编辑距离计算语音段之间的相似性.实验表明,将语音符号化后,音频之间的可区分性更加明显,识别率也有了明显提高. 相似文献
12.
为了从声学语音学角度比对朝鲜语与蒙古语的相似性,提出了一种利用相似单元音在连续语音段中出现的概率分布来对比分析语音相似程度的方法.首先,采用双门限静音段检测方法将连续语音自动划分为一系列的语音段,然后采用模式识别方法检测和统计5对相似单元音在语音段首、段中和段尾的概率分布,最后通过对比分析概率分布比较了朝鲜语和蒙古语的语音相似性.对比分析结果表明,朝鲜语与蒙古语语音之间存在差异性,这两种语音的声学特征不具有相似性.本文研究方法和结果可为进一步研究朝鲜语与蒙古语的语音对比提供参考. 相似文献
13.
借鉴PC网络在线游戏开发引擎的设计方法和经验,提出手机网络在线游戏开发引擎的设计基本思路,把游戏开发引擎分为图形渲染子引擎、网络通信子引擎、音频子引擎、人工智能和物理运动子引擎以及有关的一些常用工具集.采用该开发引擎制作的一款Demo游戏通过了在Nokia N70手机上的模拟测试. 相似文献
14.
通过分析DOS和WINDOWS95/98中提供的文件复制命令以及常见的文件压缩,切割工具,提出了文件复制过程中源文件的分组优化,文件切割及分卷的算法。 相似文献
15.
16.
为减少朝鲜语古籍中的小文字错检和漏检问题,提出了一种基于HRCenterNet模型改进的朝鲜语古籍文字检测方法.首先,将HRCenterNet中Bottleneck模块的3×3卷积运算替换为Involution算子,即将Bottleneck模块替换为Involution - Bottleneck模块.其次,通过引入ECA(efficient channel attention)注意力机制扩展Involution - Bottleneck模块,并由此提出了基于IENeck模块的HRCenterNet改进模型.最后,利用朝鲜语古籍数据集对改进的HRCenterNet模型和原模型分别进行了训练,并测试了其在不同IOU下的准确率、召回率以及F1等指标.实验结果表明,在IOU ≥ 0.6时,改进的HRCenterNet模型在朝鲜语古籍数据集上的准确率、召回率和F1指标均优于原模型,且IOU值越高模型的检测效果越好.这表明改进的HRCenterNet模型显著优于原模型,可应用于朝鲜语古籍文字的检测中. 相似文献
17.
手机游戏引擎中的图形引擎非常重要,它的好坏关系到手机游戏界面流畅情况以及对手机的硬件要求程度.本文基于J2ME的MIDP 2.0,讨论了手机RPG游戏引擎中图形引擎的设计与实现,包括地图数据文件设计到读取、分析、加载和渲染. 相似文献
18.
借鉴人类搜索经验,将场景复杂度概念应用到移动机器人目标搜索过程,提出了一种基于场景复杂度的移动机器人目标搜索方法.首先,通过分析影响场景复杂度的主要因素,给出了融合图像和激光深度信息的场景复杂度形式化定义;其次,结合视觉目标检测过程,描述了基于场景复杂度的目标搜索方法,该方法通过对各个场景按复杂度进行筛选来确定待搜索场景,并根据场景深度信息确定该场景的待搜索点.实验结果表明:本文提出的场景复杂度计算方法符合人的复杂度主观感受,较好地反映了场景的内在特征;基于场景复杂度的目标搜索方法可以有效地搜索目标,具有较好的鲁棒性. 相似文献
19.
20.
针对场景的光照变化和遮挡、混响等因素对目标定位准确性和鲁棒性的影响,提出了一种基于Kinect音视频融合的目标定位方法.在获取场景的颜色、深度和声源定位信息后,首先利用获取的深度信息剔除背景信息,然后分别对颜色、深度和声源定位的模型计算似然函数,最后融合上述3种似然函数,并在粒子滤波框架下实现目标定位.实验结果表明,音视频信息融合的目标定位平均准确率达到90.7%,相比于同一场景下独立使用视频和音频定位的准确率分别提高了9.1%和16.9%. 相似文献