首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   5篇
  完全免费   1篇
  自动化技术   6篇
  2018年   1篇
  2014年   1篇
  2013年   1篇
  2010年   2篇
  2003年   1篇
排序方式: 共有6条查询结果,搜索用时 31 毫秒
1
1.
基于视差平面分割的移动机器人障碍物地图构建方法   总被引:1,自引:0,他引:1  
作为自主移动机器人地表障碍物探测(GPOD)技术的一部分,提出了一种利用双目摄像机的视差图像 获取信息来构建机器人前方障碍物栅格地图的方法. 该方法融合了3 维立体视觉技术以及2 维图像处理技术,前者 依据视差图的直方图信息对视差图像进行自适应平面分割,把每个平面看作是3 维场景中的实物切片进而提取障碍 物3 维信息,后者通过计算各平面上的障碍物信息曲线来提取障碍物信息,把立体视觉数据从视差图像空间变换到 2 维的障碍物地图空间. 给出了该方法构建障碍物地图的整体过程,试验结果证明了该算法的有效性和精确性.  相似文献
2.
本文着眼于探讨从平面序列图像中提取双眼视差异的可能性,分析了线性运动平面序列图像和旋转运动平面序列图像中含有的双眼视差异深度信息,提出了一种将含有双眼视差异深度信息的平面序列图像转换为立体图像的新方法,并给出了具体算法和实验结果.实验表明,本文所给出的分析和方法都是正确的.  相似文献
3.
双目视差测距是被动光电测距中的一种重要方法。主要就双目视差测距中的图像配准问题进行了探讨,找出了一种基于区域的快速匹配算法,同时比较了OpenCV中Block Matching块匹配法和Graph Cut图切割法,从而实现了基于Block Matching块匹配的双CCD测距系统,最后对实验结果进行了分析验证,结果证明该系统有效而实用。  相似文献
4.
提出一种基于同构径向基函数(RBF)网络的视差图像分治重建方法,通过可调域值和边缘检测完成视差图像的区域分割,在每个区域内采用RBF神经网络进行重建,将各个区域进行拼接,得到最终的重建结果。在不同区域运用RBF进行重建时根据各区域结构特征的繁简用不同分辨率的数据进行训练。实验结果表明,该方法可以获得高质量的重建结果。  相似文献
5.
目的 针对现有的Kinect传感器中彩色相机和深度相机标定尤其是深度相机标定精度差、效率低的现状,本文在现有的基于彩色图像和视差图像标定算法的基础上,提出一种快速、精确的改进算法。方法 用张正友标定法标定彩色相机,用泰勒公式化简深度相机中用于修正视差值的空间偏移量以简化由视差与深度的几何关系构建的视差畸变模型,并以该模型完成Kinect传感器的标定。结果 通过拍摄固定于标定平板上的标定棋盘在不同姿态下的彩色图像和视差图像,完成Kinect传感器的标定,获得彩色相机和深度相机的畸变参数及两相机之间的旋转和平移矩阵,标定时间为116 s,得到彩色相机的重投影误差为0.33,深度相机的重投影误差为0.798。结论 实验结果表明,该改进方法在保证标定精度的前提下,优化了求解过程,有效提高了标定效率。  相似文献
6.
目的 针对图像拼接中大视差图像难以配准的问题,提出一种显性子平面自动配准算法。方法 假设大视差图像包含多个显性子平面且每个平面内所含特征点密集分布。对该假设进行了验证性实验。所提算法以特征点分布为依据,通过聚类算法实现子平面分割,进而对子平面进行局部配准。首先,使用层次聚类算法对已匹配的特征点聚类,通过一种本文设计的拼接误差确定分组数目,并以各组特征点的聚类中心为新的聚类中心对重叠区域再聚类,分割出目标图像的显性子平面。然后,求解每个显性子平面的投影参数,并采用就近原则分配非重叠区域的单应性矩阵。结果 采用公共数据集对本文算法进行测试,并与Auto-Stitching、微软Image Composite Editor两种软件及全局投影拼接方法(Baseline)、尽可能投影算法(APAP)进行对比,采用均方根误差作为配准精度的客观评判标准。实验结果表明,该算法在拼接大视差图像时,能有效地配准局部区域,解决软件和传统方法由误配准引起的鬼影、错位等问题。其均方根误差比Baseline方法平均减小55%左右。与APAP算法相比,均方根误差平均相差10%左右,但可视化配准效果相同且无需调节复杂参数,可实现自动配准。结论 提出的显性子平面自动配准算法,通过分割图像所含子平面进而实现局部配准。该方法具有较高的配准精度,在大视差图像配准方面,优于部分软件及算法,可应用于图像拼接中大视差图像的自动配准。  相似文献
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号