首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
通过赋予游戏中智能体识别鼠标轨迹的能力,提高了游戏的可操作性,增加了游戏的趣味性。鼠标轨迹识别属于多分类问题,该文提出的解决方案是采用BP神经网络和支持向量机(SVM)求解8种鼠标轨迹的识别问题,并且完成了实验对比,封闭测试中两种方法对鼠标轨迹的正确识别率分别为93.75%和98.75%。  相似文献   

2.
针对单一特征识别算法泛化能力差、识别准确率低的问题,本文深入分析了典型目标地震波信号的时域特征,融合多个特征构建训练样本,采用BP神经网络算法对目标进行识别;针对BP神经网络收敛速度慢、泛化能力差的缺点,通过遗传算法对BP神经网络优化。最终形成基于GA-BP神经网络的目标识别方法,并进行实验验证。结果表明:基于GA-BP神经网络算法无论是在收敛性、准确性还是计算速度上都优于传统算法。  相似文献   

3.
该文给出了一种基于BP神经网络的帘子布疵点识别方法。该方法首先讨论了LBP算子原理,然后对帘子布样本图像进行LBP运算,得到对应LBP值的归一化直方图,再通过这些LBP直方图对BP神经网络进行训练,最后采用已训练的BP神经网络进行帘子布疵点识别。实验结果证明,该方法可准确识别出帘子布浆斑、稀经、粘并、断经和劈缝等疵点。  相似文献   

4.
基于神经网络的杂草图像分割算法   总被引:3,自引:0,他引:3       下载免费PDF全文
在自动除草系统中优化杂草图像分割算法是降低识别误差的有效途径,为此提出了一种基于神经网络的分割算法。首先由训练样本统计出植被和背景在RGB颜色空间的分布概率,接着通过Bayes理论得出最优分割曲面训练BP神经网络,再通过BP神经网络将各种颜色分为植被和背景两类,并据此分割杂草图像。与其他三种杂草图像分割算法比较,新方法以颜色代替像素点为研究对象并据此构造最优分割曲面从而减小了分割误差并具备较好的泛化能力。  相似文献   

5.
由于色斑和毛孔等强噪声的干扰,人脸皱纹识别特别是对面部细纹理的识别受到了严重影响。针对上述问题提出了一种基于Gabor滤波器和BP神经网络相结合的人脸皱纹识别算法。通过训练好的BP神经网络人脸皮肤图像首先识别是否存在皱纹,再分别自动标注存在皱纹的区域。本算法首先基于不同年龄的多幅人脸照片创建皱纹样本库,采用样本库训练神经BP网络。其次分别选取含皱纹和不含皱纹的图片,然后用Gabor滤波器组计算出图片的频谱特征,将它们作为训练样本,训练得到用于识别的BP神经网络。大量测试结果表明,本算法能够消除或减少色斑、毛孔等噪声的干扰,对有皱纹区域和无皱纹区域的识别率可达到85%以上。  相似文献   

6.
针对BP神经网络在高维数据分类中存在训练时间长的缺点,提出一种新的多神经网络分类模型,该模型采用自组织特征映射(SOFM)网络对训练样本集进行无监督聚类,通过优化竞争层神经元权值,并以此训练BP神经网络实现数据分类.最后对自由手写数字样本进行识别,仿真实验表明,这一模型具有较强的分类能力和泛化能力.  相似文献   

7.
采用BP神经网络,把矩形压电振子的各阶振型位移输入到神经网络中进行训练,提取各阶模态的振型特征,可实现矩形压电振子的共振振幅分布和振动模态阶次的非线性映射,以此区分各个模态。仿真实验结果显示,建立的神经网络模型可以从ANSYS输出的各模态中准确识别出矩形压电振子的B(3,1)模态,对训练样本外的尺寸也有一定的识别效果,表明所建立的BP神经网络可以有效地用于该矩形压电振子的振动模态区分。  相似文献   

8.
本文采用了BP神经网络在声音识别分类方面的相关技术,针对不同水中的航行体的声学特点,构建了BP神经网络。将已知的四类声音信号中的一部分作为训练样本对神经网络进行了训练,最终获得了成熟的神经网络,经验证该网络可以很好的对不同水声目标的声学信号特征进行分类识别,利用该方法可以有效提高侦测设备对目标的识别能力。  相似文献   

9.
基于BP神经网络的手写数字识别的算法   总被引:1,自引:0,他引:1  
由于BP神经网络具有并行处理信息、自组织、自学习信息等优点,本文采用了BP神经网络对手写数字识别进行运算,提取笔画密度、长宽比和欧拉数等特征作为训练样本.并用Matlab对其算法进行仿真,并且很准确的识别出来,说明其有非常广泛的前景.  相似文献   

10.
高光谱遥感图像作为一种新型的遥感图像,鉴于传统的遥感图像识别方法对这种图像的识别精度较低,该文采用BP神经网络方法对高光谱遥感图像进行识别和分类,并使用赤铁矿等六种矿石的光谱图像对神经网络进行训练,得到很好的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号