首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
2.
改进了Census算法,可以较好地反映出相邻点之间的联系,并进行了结果对比。  相似文献   

3.
针对区域匹配算法在灰度变化比较大区域精度不高的问题,提出一种改进的匹配算法.利用Sobel算子计算各像素点的梯度值,根据梯度幅度直方图获得自适应阈值,动态建立支持窗口.改进传统的Census变换,用窗口内所有像素均值代替中心像素进行Census变换,在左右图像中寻找最佳匹配点获得视差图.利用FPGA并行处理和硬件实现的优点,对大数据量实时地进行处理,提高运算效率.实验结果表明:改进的立体匹配算法和硬件结构能够获得精度较高的视差图,处理640×480的图像对只需32.4 ms.  相似文献   

4.
非参数化立体匹配算法的FPGA实现   总被引:1,自引:0,他引:1  
针对无人车导航中立体视觉实时性的要求,提出了一种基于现场可编程门阵列(FPGA)的立体匹配方案及硬件结构.该方案采用非参数化的CENSUS算法进行立体匹配,克服了传统方法受亮度差异影响大的缺点,运算简单,适合硬件逻辑操作.基于FPGA的硬件系统利用合理的流水线设计提高了数据处理的并行性,可以实时地对大数据量进行处理.利用双目立体视觉硬件系统,进行了合成图对和真实图对的测试.实验结果表明,所提出的立体匹配方案和硬件结构能够以15 ms的速度完成匹配,并且具有较强的鲁棒性.  相似文献   

5.
动态约束规划问题求解的困难在于如何处理问题的约束及时间(环境)变量.本文给出了求解一类定义在自然数集上的动态约束规划问题的差分进化算法,该方法借助于问题的约束条件设计了一种新的适应度函数及选择算子、同时给出了一种带一维不精确局部搜索的变异算子极大地增强了群体的多样性、提高了算法跳出局部最优的能力.数值试验表明,该算法性能稳定性较好,收敛速度较快,全局搜索能力较强,其对动态非线性约束规划问题求解是有效的.  相似文献   

6.
针对目前旅游路线规划缺乏自主性,难以满足旅游者个性化需求的问题,提出了一种多约束指标改进的动态旅游路线规划算法.首先建立了兴趣景点集模型和特征拐点集模型,确定多约束指标,以最短路径规划为基础融合多约束指标设计动态旅游路线规划算法,使旅游者能够在自主或利用智能机随机选取景点后智能规划最优旅游路线.算例证明,该算法能够输出距离最短同时符合旅行摆渡过程一般规律的路线,满足旅游者个性化需求,使旅游者获得最佳动机利益满足.  相似文献   

7.
针对在低信噪比条件下基于动态规划的检测前跟踪(TBD)算法在给定的有限帧数情况下可能无法检测到目标的问题,提出了一种基于动态规划的新算法,即在确定目标状态转移时,应用后续观测值对状态转移进行修正.在该算法中,为了减小搜索范围及减少伪航迹,又引入了方向加权的思想,即重点考虑目标存在的可能区域.理论分析和仿真结果表明,新算法的检测性能优于一般的基于动态规划的TBD算法,得到的目标航迹也更加精确.  相似文献   

8.
针对双目视觉立体匹配效率低的问题,从SURF匹配算法和摄像机标定、校准方面进行了改进。与传统视觉匹配算法相比,SURF匹配算法具有效率高、抗干扰能力强等优点。对摄像机进行标定与校准,校准后的特征点更精确,为准确匹配奠定了基础。利用极线约束条件改进SURF算法匹配速率,并进行了相关实验。实验结果表明,算法不仅降低了匹配时间,而且还提高了匹配准确率。  相似文献   

9.
为解决立体匹配中边界模糊、无纹理区域的边界误匹配、初始匹配代价过于粗糙等问题,设计了一种基于改进数据项的图像边界信息强化算法。通过归一化匹配代价削弱匹配不利的像素点;通过设置权值强化边界信息,对边界进行匹配约束。实验证明,新的能量函数能在边界区域得到正确视差;消除了大量无纹理区域的不连续线段;以较少的迭代次数提高了优化效果。在图片无纹理区域可降低14%的错误率。  相似文献   

10.
将小波变换运用到立体视觉的图像匹配中,选取合适的二进小波基,以二进小波变换的多尺度零交叉为匹配基元,较多地利用了图像的结构特征.在匹配过程中采用由粗到精的层次匹配策略和严格的匹配约束,减小了对应点搜索范围,并从局部和整体2个角度来解决歧义匹配的问题.实验结果证明,该方法具有较高的匹配精确度和较快的匹配速度,并且算法稳定.  相似文献   

11.
为快速而准确地得到稠密视差图,提出了一种基于限制搜索空间的动态规划立体匹配算法。该算法以动态规划立体匹配方法为基础,通过初始匹配序列限制搜索空间以减少搜索变量个数。同时,提出一种基于自适应权重的多窗口累积策略来提高匹配精度,并在平滑性限制中引入亮度梯度以避免在物体边界的视差不连续处产生过度惩罚。实验结果表明,该匹配算法在匹配速度和匹配精度上都有很大的提高,是一种简单有效的立体匹配算法。  相似文献   

12.
距离测量作为障碍物检测以及路径规划的前提和基础是机器人研究领域的一个重要分支。在众多测距方法中,由于双目立体视觉具有信息丰富、探测距离广等优点被广泛应用。本文将改进的SIFT特征匹配算法应用到双目视觉测距与标定系统中。首先建立双目视觉测距模型,测量值由空间物点在左右摄像机下的像素坐标值决定;其次根据该模型的特点提出了基于平行光轴的双目立体视觉标定方法;最后利用改进的SIFT特征匹配算法,提取匹配点的像素坐标完成视觉测距。实验结果表明,根据测量数据对障碍物进行三维重建,相对距离与真实场景基本吻合,能够有效地指导机器人进行避障。  相似文献   

13.
针对目前主流方法对图像中纹理单一区域匹配效果不佳的问题,提出了一种改进的立体像对稠密匹配算法。该算法首先利用区域增长技术找到图像中的纹理单一区域,然后将整个区域作为匹配基元以得到纹理单一区域的稠密视差图。相对于点基元,区域基元包含的信息更多,且在图像中不易重复出现,因此可以减少误匹配发生的几率。在国际标准测试图像上进行了实验,结果证明该算法的可行性与准确性。  相似文献   

14.
基于动态规划的缩写发现算法   总被引:1,自引:0,他引:1  
数据清理中重复记录的识别一般采用动态规划算法或过滤算法,然而很少算法考虑了数据中的缩写问题,因此容易漏掉一些重复记录,影响了数据清理的质量,因此在动态规划的基础上提出了缩写发现算法,同已有算法相比,它的算法复杂度较小,而且能够发现汉语等无分隔符的语言中的缩写,最后给出了缩写情况下判断字符串近似匹配的方法.  相似文献   

15.
针对立体视频数据量大、立体匹配算法效率较低,远远满足不了实时传输需求的现状,提出了一种应用于单视加深度立体视频编码的快速立体匹配算法。该算法利用单视编码过程中产生的运动信息作为深度图生成的辅助信息,将立体匹配过程中的视差估计值重组,并将重组后的信息作为P帧的视差估计初值进行后续的迭代运算。算法通过利用单视编码过程中已有的运动信息,降低了P帧立体匹配的运算复杂度。实验结果表明,该算法能使视差图的生成速度提高一倍左右。  相似文献   

16.
针对直接法视觉里程计在光照变化场景下的失效问题,提出基于改进Census变换的单目视觉里程计,向量Census变换半直接单目视觉里程计(VC-SVO). Census变换是立体视觉领域中非参数变换的一种,可以有效减少光照变化对图像的影响. 将Census变换引入SLAM中的后端优化,改变传统Census变换的形式,转换到欧氏空间中表示,并采用新的误差计算方法. 在SVO算法中增添非平面假设模型,扩展SVO算法并融合改进后的Census变换,通过最小化地图点的Census变换误差来得到更准确的相机位姿,同时构建环境地图. 在EuRoC、New Tsukuba Stereo与TUM公开数据集上的图像实验表明,VC-SVO实现了光照变化情况下的位姿估计,验证了算法的有效性. VC-SVO算法的精度和鲁棒性要优于已开源的SVO和基于直接法的大范围定位和地图构建(LSD-SLAM)算法.  相似文献   

17.
提出一种基于图像分割和可变窗的联合立体匹配算法。首先对参考图像和目标图像进行图像分割,根据视差在同一色彩分割区域平滑的假设,计算出分割区域的匹配代价;然后由窗口内的匹配误差均值、误差方差、偏向误差确定最佳可变窗并求出其匹配代价;最后综合两类匹配代价通过局部优化方法获得稠密视差图。实验结果表明,该算法能够较好的处理低纹理和深度不连续区域,得到较高匹配精度的同时降低了匹配时间。  相似文献   

18.
基于SIFT特征点的双目视觉定位   总被引:4,自引:0,他引:4  
提出了一种结合了SIFF特征点的双目立体视觉定位方法.介绍了对尺度、旋转、视角等变化具有良好鲁棒性的SIFT特征向量,利用SIFT特征向量匹配算法在双目视觉系统采集的左、右图片中分别检测目标、获取匹配的目标SIFT特征点.经过空间匹配点选择、标定点坐标计算等步骤获取左、右图片中具有空间位置一致性的目标标定点,并在摄像机坐标系中恢复目标标定点三维信息.实验结果表明,利用该方法进行目标定位具有较强的适应性.有一定的实用价值.  相似文献   

19.
将一种改进的距离变换引入到遥感图像匹配中,先对参考图像和目标图像进行直方图处理,以克服不同光照条件下带来的匹配误差,在此基础上对原图像和模板图像进行距离变换,其中引入膨胀算子,减少运算次数。最后对距离变换后的图像进行匹配操作。实验结果表明:这种方法有效地克服了几何失真、边缘变化的影响,具有抗灰度反转的能力,广泛应用于不同成像条件下获取图像间的匹配,该算法满足一定的匹配精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号