全文获取类型
收费全文 | 96篇 |
免费 | 25篇 |
国内免费 | 23篇 |
专业分类
电工技术 | 10篇 |
综合类 | 18篇 |
金属工艺 | 1篇 |
机械仪表 | 16篇 |
武器工业 | 4篇 |
无线电 | 9篇 |
一般工业技术 | 2篇 |
自动化技术 | 84篇 |
出版年
2024年 | 5篇 |
2023年 | 8篇 |
2022年 | 15篇 |
2021年 | 21篇 |
2020年 | 11篇 |
2019年 | 13篇 |
2018年 | 10篇 |
2017年 | 6篇 |
2016年 | 6篇 |
2015年 | 5篇 |
2014年 | 8篇 |
2013年 | 9篇 |
2012年 | 6篇 |
2011年 | 2篇 |
2010年 | 1篇 |
2008年 | 2篇 |
2007年 | 4篇 |
2005年 | 5篇 |
2004年 | 2篇 |
2003年 | 2篇 |
2002年 | 1篇 |
2001年 | 1篇 |
1994年 | 1篇 |
排序方式: 共有144条查询结果,搜索用时 0 毫秒
91.
针对GNSS 信号受到干扰或在拒止环境下,多旋翼无人机的导航定位问题,设计一种多旋翼无人机视觉
惯性里程计系统。介绍系统的总体设计方案、硬件选型与设计、软件系统搭建、通信协议规定以及算法设计思路。
实验验证结果表明:该系统可以实际运行在多旋翼无人机上,当GNSS 信号不可用时,仍可向飞控实时提供多旋翼
无人机当前可用位姿,为多旋翼无人机视觉辅助导航设计提供参考。 相似文献
92.
93.
94.
针对目前流行的单目视觉里程计当移动机器人做“近似纯旋转运动”时鲁棒性不强的问题,从理论上分析了其定位鲁棒性不高的原因,提出了一种基于改进的3维迭代最近点(ICP)匹配的单目视觉里程计算法.该算法首先初始化图像的边特征点对应的深度值,之后利用改进的3维ICP算法迭代求解2帧图像之间对应的3维坐标点集的6维位姿,最后结合边特征的几何约束关系利用扩展卡尔曼深度滤波器更新深度值.改进的ICP算法利用反深度不确定度加权、边特征梯度搜索与匹配等方法,提高了传统ICP算法迭代求解的实时性和准确性.并且将轮子里程计数据作为迭代初始值,能够进一步提高定位算法的精度和针对“近似纯旋转运动”问题的鲁棒性.本文采用3个公开数据集进行算法验证,该算法在不损失定位精度的前提下,能够有效提高针对近似纯旋转运动、大场景下的鲁棒性.单目移动机器人利用本文算法可在一定程度上校正里程计漂移的问题. 相似文献
95.
室内环境中存在丰富的语义信息,可以使机器人更好地理解环境,提高机器人位姿估计的准确性。虽然语义信息在机器人同时定位与地图构建(SLAM)领域得到了深入研究和广泛应用,但是在环境准确感知、语义特征提取和语义信息利用等方面还存在着很多困难。针对上述难点,提出了一种基于视觉惯性里程计算法与语义信息相结合的新方法,该方法通过视觉惯性里程计来估计机器人的状态,通过校正估计,构建从语义检测中提取的几何表面的稀疏语义地图;通过将检测到的语义对象的几何信息与先前映射的语义信息相关联来解决视觉惯性里程计和惯性测量单元的累积误差问题。在室内环境中对装备RGB-D深度视觉和激光雷达的无人机进行验证实验,结果表明,该方法比视觉惯性里程计算法取得了更好的结果。应用结合语义信息和视觉惯性里程计的SLAM算法表现出很好的鲁棒性和准确性,该方法能提高无人机导航精度,实现无人机智能自主导航。 相似文献
96.
目的 视觉里程计(visual odometry,VO)仅需要普通相机即可实现精度可观的自主定位,已经成为计算机视觉和机器人领域的研究热点,但是当前研究及应用大多基于场景为静态的假设,即场景中只有相机运动这一个运动模型,无法处理多个运动模型,因此本文提出一种基于分裂合并运动分割的多运动视觉里程计方法,获得场景中除相机运动外多个运动目标的运动状态。方法 基于传统的视觉里程计框架,引入多模型拟合的方法分割出动态场景中的多个运动模型,采用RANSAC(random sample consensus)方法估计出多个运动模型的运动参数实例;接着将相机运动信息以及各个运动目标的运动信息转换到统一的坐标系中,获得相机的视觉里程计结果,以及场景中各个运动目标对应各个时刻的位姿信息;最后采用局部窗口光束法平差直接对相机的姿态以及计算出来的相机相对于各个运动目标的姿态进行校正,利用相机运动模型的内点和各个时刻获得的相机相对于运动目标的运动参数,对多个运动模型的轨迹进行优化。结果 本文所构建的连续帧运动分割方法能够达到较好的分割结果,具有较好的鲁棒性,连续帧的分割精度均能达到近100%,充分保证后续估计各个运动模型参数的准确性。本文方法不仅能够有效估计出相机的位姿,还能估计出场景中存在的显著移动目标的位姿,在各个分段路径中相机自定位与移动目标的定位结果位置平均误差均小于6%。结论 本文方法能够同时分割出动态场景中的相机自身运动模型和不同运动的动态物体运动模型,进而同时估计出相机和各个动态物体的绝对运动轨迹,构建出多运动视觉里程计过程。 相似文献
97.
98.
提出了一种新的基于半直接视觉里程计的RGB-D SLAM(同步定位与地图创建)算法,同时利用直接法和传统特征点法的优势,结合鲁棒的后端优化和闭环检测,有效提高了算法在复杂环境中的定位和建图精度.在定位阶段,采用直接法估计相机的初始位姿,然后通过特征点匹配和最小化重投影误差进一步优化位姿,通过筛选地图点并优化位姿输出策略,使算法能够处理稀疏纹理、光照变化、移动物体等难题.算法具有全局重定位的能力.在后端优化阶段,提出了一种新的关键帧选取策略,同时保留直接法选取的局部关键帧和特征点法选取的全局关键帧,并行地维护2种关键帧,分别在滑动窗口和特征地图中对它们进行优化.算法通过对全局关键帧进行闭环检测和优化,提高SLAM的全局一致性.基于标准数据集和真实场景的实验结果表明,算法的性能在许多实际场景中优于主流的RGB-D SLAM算法,对纹理稀疏和有移动物体干扰的环境的鲁棒性较强. 相似文献
99.
视觉里程计(visual odometry,VO)是处理搭载视觉传感器的移动设备定位问题的一种常用方法,在自动驾驶、移动机器人、AR/VR等领域得到了广泛应用。与传统基于模型的方法相比,基于深度学习的方法可在不需显式计算的情况下从数据中学习高效且鲁棒的特征表达,从而提升其对于光照变化、少纹理等挑战性场景的鲁棒性。简略回顾了基于模型的视觉里程计方法,从监督学习方法、无监督学习方法、模型与学习融合方法、常用数据集、评价指标、模型法与深度学习方法对比分析六个方面全面介绍了基于深度学习的视觉里程计方法。指出了基于深度学习视觉里程计仍存在的问题和未来的发展趋势。 相似文献
100.
融合IMU去除运动模糊的改进光流匹配算法 总被引:1,自引:0,他引:1
为进一步提高视觉SLAM中的光流匹配精度和速度,提出一种融合惯性测量单元(inertial measurement unit,IMU)去除运动模糊的改进光流匹配算法。该算法首先利用IMU运动信息计算的点扩散函数去除运动模糊,提高特征点匹配率;其次在LK(Lucas-Kanade)光流的基础上引入梯度误差,并使用图像梯度L1范数作为正则项模拟稀疏噪声,构建代价函数;然后利用IMU预测特征点位置作为该算法初始值,并加入BB(Barzilar-Borwein)步长改进原有的高斯牛顿算法,提高计算速度。实验表明,通过两帧之间比较,该算法的效率和精度均优于LK光流法;然后将该算法集成到VINS-Mono框架,在数据集EuRoC上结果显示,该算法提高了原有框架的定位精度和鲁棒性。 相似文献