首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
基于改进型自主发育网络的机器人场景识别方法   总被引:1,自引:0,他引:1  
余慧瑾  方勇纯 《自动化学报》2021,47(7):1530-1538
场景识别是移动机器人在陌生动态环境中完成任务的前提. 考虑到现有方法的不足, 本文提出了一种基于改进型自主发育网络的场景识别方法, 它通过引入基于多优胜神经元的Top-k竞争机制、基于负向学习的权值更新、基于连续性样本的加强型学习等步骤实现对场景的快速识别, 并使该方法具有更好的适应能力. 对于这种基于改进型自主发育网络的场景识别方法, 通过实验进行了对比测试. 结果表明, 这种改进型自主发育神经网络节点利用率高, 场景识别准确可靠, 可以较好地满足机器人作业的实际需求.  相似文献   

2.

针对融合识别领域中不同框架下多源异类传感器的不确定证据信息无法有效融合的问题, 提出一种基于条件证据网络的多源异类知识融合识别方法. 该方法将战场协同作战中不同框架下多源异类传感器的领域知识统一在证据网络的结构下, 形成多源异类知识融合识别模型, 对多源异类传感器的不确定性证据信息进行基于条件证据网络的融合推理, 得到识别结果. 仿真实例验证了所提出方法的优越性.

  相似文献   

3.
为了提高基于传感器信号的运动意图识别准确度,开展了基于深度学习和多传感器信息融合的运动意图识别方法的研究.首先,在平地、10°上/下坡、上/下楼梯,共5种步态模式下,提取了80名受试者的运动传感器数据,采用非线性降维Diffusion Maps法(DM)对数据进行降维,利用短期傅里叶变化(SIFT)提取数据特征;构建基于卷积神经网络(CNN)和埃尔曼神经网络(ENN)的新型串行混合网络模型(CNN-ENN),并完成了模型的训练;随机选取了5名志愿者参与实验测试.实验结果表明CNN-ENN改进串行混合网络模型对多传感器融合信息的平均识别准确度为95.86%,分别比传统的运动意图识别算法CNN和基于集成学习的加权投票算法(MFR)高10.21%和16.37%.实践表明深度学习模型与多传感器信息融合技术相结合的方法对运动意图识别精度的提高有很好的指导价值.  相似文献   

4.
提出了一种基于虚拟多传感器融合技术的红外目标识别方法.文中利用傅里叶描述器提取目标形状的边缘特征以及辐射特性的六个特征量,采用多个人工神经网络对来自单一传感器的目标利用不同特征分别识别,再利用D-S证据推理将各个网络的识别结果进行决策级融合.仿真实验结果表明,该方法提高了识别率和识别结果的可靠性.  相似文献   

5.
针对室内环境下的机器人场景识别问题,重点研究了场景分类策略的自主性、实时性和准确性,提出了一种语义建图方法.映射深度信息构建二维栅格地图,自主规划场景识别路径;基于卷积网络建立场景分类模型,实时识别脱离特定训练;利用贝叶斯框架融合先验知识,修正了错误分类并完成语义建图.实验结果表明:机器人能够进行全局自主探索,实时判断场景类别,并创建满足要求的语义地图.同时,实际路径规划中,机器人可以根据语义信息改善导航行为,验证了方法的可行性.  相似文献   

6.
多机器人系统传感器融合技术应用研究   总被引:1,自引:1,他引:1  
朱凤春  戴炬 《微计算机信息》2006,22(35):185-187
当前应用于机器人的多传感器数据融合研究大都集中在机器人自主导航和定位问题上,很少涉及利用机器人进行目标跟踪的研究。现有的基于网络时延的融合算法大都直接套用传统的同步数据融合方法,因此会产生数据等待、资源浪费以及较差的实时性能等问题。本文提出结合预测估计以及递推加权融合技术,设计出一种新的能适应网络时延的多传感器预测加权融合算法。该算法不仅能很好的解决现有基于时延的数据融合算法存在的诸多弊端,而且拥有良好的实时预测功能。文中给出了新算法的推导过程,并通过计算机仿真算例来显示新算法的实用性和优越性。  相似文献   

7.
史梦安  陆振宇 《计算机应用》2020,40(12):3679-3686
针对多类别目标检测在特定场景中数据样本有限的情况,为进一步提高机器人系统中轻量级神经网络对小型物体识别的准确率和稳定性,提出了一种基于机器人操作系统(ROS)的目标状态识别模块。首先,考虑到嵌入式设备的算力限制,目标识别模型采用轻量级的网络YOLO-tiny作为主要架构,并在YOLO-tiny中引入RFB,提出了YOLO-tiny-RFB模型。随后,基于MobileNet对旋钮开关的多种状态实现精准分类。最后,设计数据关联规则,通过图像配准及交并比(IOU)计算等算法使识别模块完成同一场景多次识别结果的融合,从而使用户能够对不同时刻各表计的状态进行追踪。实验结果表明,相较于YOLO-tiny,YOLO-tiny-RFB模型在少量增加模型计算量的情况下,在构建的电站仪器识别数据集上,其目标识别平均精度均值(mAP)提升了17.9%,达到了82.4%。在旋钮数据分布极端不均衡的情况下,通过引入多种数据增广方法使模型的平均准确率达到了90.7%。所提出的目标检测模块和状态识别网络模型能够有效、准确地完成各类仪器的状态识别,同时能够对仪器状态的识别结果在时间跨度上进行融合。  相似文献   

8.
基于深度迁移学习的烟雾识别方法   总被引:1,自引:0,他引:1  
王文朋  毛文涛  何建樑  窦智 《计算机应用》2017,37(11):3176-3181
针对传统的基于传感器和图像特征的烟雾识别方法易被外部环境干扰且识别场景单一,从而造成烟雾识别精度较低,而基于深度学习的识别方法对数据量要求较高,对于烟雾数据缺失或数据来源受限的情况模型识别能力较弱的问题,提出一种基于深度迁移学习的烟雾识别方法。将ImageNet数据集作为源数据,利用VGG-16模型进行基于同构数据下的特征迁移。首先,将所有的图像数据进行预处理,对每张图像作随机变换(随机旋转、剪切、翻转等);其次,引入VGG-16网络,将其卷积层特征进行迁移,并连接预先使用烟雾数据在VGG-16网络中训练过的全连接层;进而构建出基于迁移学习的深度网络,从而训练得到烟雾识别模型。利用公开数据集以及真实场景烟雾图像进行实验验证,实验结果表明,和现有主流烟雾图像识别方法相比,所提方法有较高的烟雾识别率,实验精度达96%以上。  相似文献   

9.
付勇  吴炜  万泽青 《计算机科学》2023,(12):192-202
文中研究了人机共融环境下的自主跟随机器人。特别地,针对机器人确定所需跟随目标以及目标丢失后的重识别,提出了一种稳定有效的方法,即先基于立体相机的图像和点云数据实现对行人的视觉跟踪与定位;然后引入超宽带(Ultra Wide Band, UWB)的定位信息确定目标行人,并利用滤波算法融合传感器的数据得到相机坐标系下的坐标信息,最后利用坐标变换转为机器人坐标系下的位置。又提出了改进的动态窗口算法(Modified Dynamic Window Algorithm, MDWA),并将其作为机器人的跟随控制方法。另外,为保证机器人跟随能够持续稳定进行,基于传感器数据,提出了包含跟随行为、恢复行为、过渡行为的行为决策模块,通过行为间的切换,使机器人在面对因转弯抑或环境光照条件的变化使得相机失效而导致目标丢失时也能够重新找回目标。实验结果表明,所提出的跟随系统在开机时能够自动确定所需跟随目标,在有静态障碍物的场景,抑或是视野内有其他非目标行人干扰的动态场景下,机器人均能实现良好的避障跟随。特别地,机器人在转弯场景或是光照条件变化的场景下,机器人均可自主寻回被跟随目标,而且在转弯场景中,机器人的跟随...  相似文献   

10.
史梦安  陆振宇 《计算机应用》2005,40(12):3679-3686
针对多类别目标检测在特定场景中数据样本有限的情况,为进一步提高机器人系统中轻量级神经网络对小型物体识别的准确率和稳定性,提出了一种基于机器人操作系统(ROS)的目标状态识别模块。首先,考虑到嵌入式设备的算力限制,目标识别模型采用轻量级的网络YOLO-tiny作为主要架构,并在YOLO-tiny中引入RFB,提出了YOLO-tiny-RFB模型。随后,基于MobileNet对旋钮开关的多种状态实现精准分类。最后,设计数据关联规则,通过图像配准及交并比(IOU)计算等算法使识别模块完成同一场景多次识别结果的融合,从而使用户能够对不同时刻各表计的状态进行追踪。实验结果表明,相较于YOLO-tiny,YOLO-tiny-RFB模型在少量增加模型计算量的情况下,在构建的电站仪器识别数据集上,其目标识别平均精度均值(mAP)提升了17.9%,达到了82.4%。在旋钮数据分布极端不均衡的情况下,通过引入多种数据增广方法使模型的平均准确率达到了90.7%。所提出的目标检测模块和状态识别网络模型能够有效、准确地完成各类仪器的状态识别,同时能够对仪器状态的识别结果在时间跨度上进行融合。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号