首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 156 毫秒
1.
提出了一种线阵CCD测量系统镜头畸变校正的新方法.用线阵CCD相机及经纬仪组合体,对空间周期黑白条纹图像照相,通过图像处理和matlab曲线拟合建立图像像素坐标与无镜头畸变的理想像素坐标的关系式,即畸变校正函数.利用畸变校正函数可校正线阵CCD镜头畸变.将该方法应用于线阵CCD散布正交交汇测量系统后(两相机间距为1 561 mm),测量误差由畸变校正前5 mm提高到畸变校正后的0.9 mm.实验结果表明,用该方法进行镜头畸变校正后,线阵CCD散布测量系统的精度得到了显著的提高.  相似文献   

2.
实弹射击是部队的基础军事训练项目。现有报靶系统中基于计算机视觉的弹孔识别定位系统由于具有快速、精确、安全、人员成本低等优点而被广泛应用到该项目中。然而,计算机视觉系统处理的图像通常受镜头加工工艺以及相机轴向与被测对象所在平面不垂直的影响,导致被测对象的图像产生畸变,最终会给弹孔坐标位置的精准定位带来误差。为了提高基于计算机视觉的自动报靶系统的报靶精度,提出一种基于卷积神经网络的畸变校正算法,只需一张胸环靶面的模板图像即可模拟出大量训练数据集。训练完成后,输入一张畸变图片就可以得到该图片的畸变参数,并利用该参数完成对图像的畸变校正。与传统校正算法的对比结果表明,该算法校正效果较好,有利于提升基于计算机视觉的自动报靶系统的报靶精度。  相似文献   

3.
田小超  李忠科 《电光与控制》2015,22(3):54-57,96
针对传统摄像机标定过程复杂、三维测量精度不高的问题,提出了一种基于投影直线相交的双目视觉三维测量方法,并给出了基于神经网络的标定方法。根据摄像机成像特点,利用双标定平面上的点求取投影直线方程;针对摄像机成像复杂的畸变模型,利用BP神经网络对复杂非线性映射关系的强大逼近能力,对左右两台摄像机于远近标定平面处分别进行隐式标定,得到图像像素坐标到平面模板二维物理坐标的映射关系;设计制作了试验平台,采用手工辅助的方法获得网格模板训练样本。此标定方法完全适用于大视场、近距离、高精度的双目视觉传感器。试验结果表明,系统对空间已知长度的测量结果误差约为0.109 mm,测量精度较高。  相似文献   

4.
针对大尺寸平面零件尺寸测量系统标定精度不高的问题,提出了一种基于深度信息的系统标定方法。首先利用圆形平面靶标,提出一种提取靶标图像特征点的新方法,采用自适应阈值的边缘检测和多项式拟合算法提取特征点亚像素轮廓,利用椭圆拟合得到中心坐标;然后根据带有畸变的非线性成像几何模型,采用最小二乘法计算摄像机参数的最优解,获得靶标的位姿;最后提出被测物表面与靶标平面之间的深度信息作为摄像机模型修正项,校正测量平面位姿,利用成像原理和直线与零件表面交点确定零件尺寸。设计了单目视觉尺寸测量系统并进行实验,结果表明:标定反投影误差小于0.02 pixel,在10.75 m2的视场内,系统测量精度达到了0.05 mm。  相似文献   

5.
基于双目视觉的医疗机器人摆位系统测量方法   总被引:3,自引:3,他引:0  
为了实现精确放疗过程中精确定位和肿瘤位置的精确测量,建立了基于双目视觉的医疗机器人摆位测量系统,并对系统所采用的摄像机标定方法、标记点识别及其三维坐标计算、摆位系统的位置验证等算法进行研究。建立基于双目视觉的医疗机器人摆位测量系统;提出了一种对摄像机采用基于平面棋盘格和立体标定模板相结合的摄像机标定新方法;采用Roberts梯度算子对图像分割的方法,识别标记点中心并计算其三维坐标;通过比较基于双目视觉计算和三维坐标测量仪器测量的各个标记点三维坐标的摆位误差,实现放疗过程中位置验证和精确摆位。实验结果表明:摄像机的标定精度为36.5×10-3 mm和各个标记点的三维坐标平均偏差为δX=0.573mm、δY=0.495mm、δZ=0.430mm,测量方法可获得较高的标定精度和摆位精度,能满足精确放疗对高精度摆位系统的临床需求。  相似文献   

6.
高精度图像尺寸检测镜头畸变校正方法与实现   总被引:1,自引:0,他引:1  
黄湛  徐杜  蒋永平 《电子科技》2013,26(8):126-129
在高精度轴类零件尺寸图像检测中,提出了一种基于标准件法对镜头径向畸变进行快速校正的方法。该方法通过建立世界坐标转换到摄像机坐标、然后再转换到图像坐标的理想数学模型,并引入径向畸变参数,最终确立物体在世界坐标中与图像坐标中的映射关系,从而建立误差补偿曲线的高次拟合函数。利用得到的误差补偿函数的系数矩阵和径向畸变参数,实现镜头畸变的误差校正,有效改善了镜头畸变造成的检测误差。实验表明,该方法快速有效,提高了检测精度、降低了设备成本、检测精度可达2 μm。  相似文献   

7.
基于图像的模拟相机标定方法的研究   总被引:2,自引:2,他引:2  
从光学测量角度出发,结合计算机主动视觉中的相机标定方法及数字图像处理技术,提出了一种CCD摄像系统畸变校正方法.该法通过使用经纬仪,不需相机做任何运动就能实现全过程的标定.该方法在摄像机模型中全面考虑了镜头的径向畸变,利用图像中心附近点畸变量较小的性质,用中心附近点和全场视点对摄像机内部参数和像差修正参数进行标定,最后由最小二乘法得到摄像系统畸变模型的畸变系数,解决了CCD摄像系统的畸变校正问题.与传统的相机标定不同,畸变校正中仅标定数字图像中像素间距和相机焦距.该法运用了亚像素细分算法,提高了测试系统的精度,是一种简单、有效、实用的标定法.  相似文献   

8.
吕丽军  刘盟  侍业 《红外与激光工程》2019,48(9):926002-0926002(8)
提出了一种校正鱼眼镜头图像畸变的新方法。通过追迹光学系统的主光线,获得它在投影平面上的径向位置与它在像平面上位置之间的关系曲线;然后用傅立叶级数拟合该关系曲线;并求出该级数的逆函数,结果就可以根据畸变图像复原没有畸变的图像。用该方法数值模拟两个鱼眼镜头系统的图像畸变校正;并用其中一个鱼眼镜头(尼康16 mm/F2.8)拍摄的两张图像进行了畸变校正实验。结果表明,当设置投影平面和物平面重合时,恢复的图像相对于物体的残余径向高度误差非常小(小于0.25%)。实验证明了该方法是可行的。  相似文献   

9.
由于航拍图像的拍摄高度远低于卫星图像拍摄高度,因此每个拍摄地点的建筑投影差大小和方向都不相同,图片畸变严重。此外,考虑到图像边缘区域的畸变程度远大于图像中心区域的畸变程度,本文提出了一种基于极坐标的Lagrange插值的逐点畸变校正方法。利用该方法在极坐标系内对单个像素点进行插值,然后根据插值结果对像素点进行校正,再将其坐标从极坐标系变换回直角坐标系,最后采用此方法在整个航拍图像内逐点进行畸变校正。实验结果表明,校正后的航拍图像畸变程度不超过3%,证明该方法不但能有效地校正畸变图像,且与传统的利用DLT线性求解畸变校正矩阵等校正方法相比具有更为广泛的适用性。  相似文献   

10.
赵丹阳  吕勇  李晓英 《红外技术》2019,41(10):956-962
大视场角的鱼眼镜头在成像时由于不同视场垂轴放大率不同,从而产生畸变使最终成像弯曲变形,这为识别和测量等应用带来了不便。针对传统经度校正方法的不足,将算法改进为双向经度鱼眼图像快速校正算法。通过对鱼眼图像有效区域进行划分,并对不同区域内的畸变点在横、纵两个方向上分别建立校正模型,确定畸变图像与理想图像之间坐标映射关系,求取校正坐标的位置。最后对图像进行非线性拉伸,改善图像中心与边缘放大率不同而产生的"膨胀感",获得符合人眼视觉习惯的图像。运用Matlab对3组图像进行校正实验,结果表明,该算法能快速有效地对鱼眼图像进行畸变校正。  相似文献   

11.
全景环形透镜(PAL)将围绕光轴360°的视场投影到环形平面上,具有超大视场,在机器人视觉、监控和虚拟现实领域有着重要的应用。实际应用中需要将环形像无失真地展开为常规平面像,解决环形像由外到内压缩引起的分辨率降低的问题。根据PAL成像的特点,以全景图像的最高分辨率为基准,采用三次样条插值,得到插值函数的最佳参数值。此处理结果同最近邻域和双线性插值结果进行比较,较好地恢复了图像细节,同时参数的优化减小图像复原的计算量。  相似文献   

12.
针对超大视场红外图像畸变大、与人眼视觉差异明显的问题,提出了一种基于精确模型和逆投影的超大视场红外图像畸变校正算法以改善其视觉效果.该算法首先利用精确模型对超大视场红外相机成像中的物、像关系进行描述;然后,针对红外图像像素采样率不高的缺点,利用较为精确的三次卷积插值法对图像进行插值来补全成像信息;最后,根据校正图像上的待赋值像点的坐标,结合校正模型和超大视场红外相机精确模型,计算该像点逆投影到插值图像时的对应坐标,并以最近邻像点像素值作为校正后图像像点的赋值.车载道路场景下的超大视场红外图像畸变校正实验结果显示,所提出的算法图像校正结果边界清晰、无锯齿效应,对场景中的直线平均还原偏差小于0.35 pixels,表明该算法对超大视场红外图像畸变校正具有较好的适用性.  相似文献   

13.
一种基于平面标靶的线结构光视觉传感器标定方法   总被引:3,自引:3,他引:0  
提出了一种适合于现场的线结构光视觉传感器标定 方法。建立了标定的数学模型,设计了一种平面点阵标靶,提出了坐标映射方法。根据结构 光条纹特征点的图像坐标和对应在标靶坐标系下的坐标,以及 相机内参,计算出标靶坐标系到摄像机坐标系的转移矩阵,再由转移矩阵得到特征点在摄像 机坐标系下的 坐标;在视场范围内,平面标靶按不同位姿摆放多次,获取投射在标靶上的所有特征点,对 这些特征点进 行平面拟合,得到结构光平面在摄像机坐标系下的方程。对标定的精度进行了验证,实验表 明,本文方法标定 过程简单,精度较高,适合于结构光传感器的现场标定。  相似文献   

14.
This paper presents a new method for image-guided surgery called image-enhanced endoscopy. Registered real and virtual endoscopic images (perspective volume renderings generated from the same view as the endoscope camera using a preoperative image) are displayed simultaneously; when combined with the ability to vary tissue transparency in the virtual images, this provides surgeons with the ability to see beyond visible surfaces and, thus, provides additional exposure during surgery. A mount with four photoreflective spheres is rigidly attached to the endoscope and its position and orientation is tracked using an optical position sensor. Generation of virtual images that are accurately registered to the real endoscopic images requires calibration of the tracked endoscope. The calibration process determines intrinsic parameters (that represent the projection of three-dimensional points onto the two-dimensional endoscope camera imaging plane) and extrinsic parameters (that represent the transformation from the coordinate system of the tracker mount attached to the endoscope to the coordinate system of the endoscope camera), and determines radial lens distortion. The calibration routine is fast, automatic, accurate and reliable, and is insensitive to rotational orientation of the endoscope. The routine automatically detects, localizes, and identifies dots in a video image snapshot of the calibration target grid and determines the calibration parameters from the sets of known physical coordinates and localized image coordinates of the target grid dots. Using nonlinear lens-distortion correction, which can be performed at real-time rates (30 frames per second), the mean projection error is less than 0.5 mm at distances up to 25 mm from the endoscope tip, and less than 1.0 mm up to 45 mm. Experimental measurements and point-based registration error theory show that the tracking error is about 0.5-0.7 mm at the tip of the endoscope and less than 0.9 mm for all points in the field of view of the endoscope camera at a distance of up to 65 mm from the tip. It is probable that much of the projection error is due to endoscope tracking error rather than calibration error. Two examples of clinical applications are presented to illustrate the usefulness of image-enhanced endoscopy. This method is a useful addition to conventional image-guidance systems, which generally show only the position of the tip (and sometimes the orientation) of a surgical instrument or probe on reformatted image slices.  相似文献   

15.
采用透镜成像的单目视觉测量模型进行位移测量时,需要知道清晰成像斑点的中心坐标。当物体发生位移时,为了获取清晰成像斑点,需要调整透镜位置,使其服从透镜成像规律。但是由于透镜制造缺陷,其焦点不是理想的一个点,而是一段小区域,当成像接近清晰时,通过微动调整透镜位置,成像清晰程度基本不变,这就是成像的不敏感区域,又称死区,因此要想获得清晰的透镜成像位置变得十分困难。为了解决这一问题,本文提出了一种基于斑点序列图像估测清晰成像位置的方法,即分别获取透镜不同位置下的斑点图像,通过图像处理得到斑点图像短径和中心坐标,根据理论推导的解析模型,对椭圆短径分成两段拟合,求取交点位置,该交点位置即为估测的清晰图像位置。最后通过实验,将透镜调整至估测的清晰图像位置并获取图像,采用边缘梯度检测和像素均值检测,验证了该位置就是清晰的透镜成像位置。  相似文献   

16.
自主研发了一套用于储罐内角焊缝焊接的线结构光视觉引导系统。引入光平面建立了视觉传感器的三维数学模型,并通过定义双参考坐标系对光平面进行标定得到精确的像素坐标与世界坐标的三维转换矩阵。在图像处理上则采用两步定位的方法,第一步,使用基于相关性模板匹配法对焊缝进行匹配,匹配ROI仅为原图的10.66%,可以大幅减少系统处理时间,提高效率;第二步,通过改进的Canny算子自适应提取复杂环境中的焊缝特征边缘并拟合直线,得到精确的二维像素坐标,最后结合三维转换矩阵将其转化为三维世界坐标实现定位。通过焊接测试,该视觉引导系统的纠偏偏差小于0.12 mm,平均处理纠偏时间小于130 ms,具有较高的精度和实时性,可以满足实际的焊接要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号