首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 62 毫秒
1.
图像拼接技术中的图像配准阶段存在计算量过大的缺陷,这是由于计算变换模型矩阵时,传统的RANSAC算法计算了全部匹配特征点(包括伪匹配点对)对应的模型参数,本文在RANSAC算法前设计了基于视差梯度约束的预检验过程,筛选掉大量伪匹配特征点,大大提高了图像配准效率。  相似文献   

2.
陆明军  叶兵 《半导体光电》2021,42(6):931-935
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度.  相似文献   

3.
多视点视频编码中的视频目标提取与视差匹配   总被引:4,自引:0,他引:4       下载免费PDF全文
在单通道视频目标分割算法的基础上,首先提出一种多视点视频编码中的视频目标提取方案.然后提出一种基于多级块匹配视差估计算法.应用Moravec算子对视差矢量图进行检测,提取特征视差矢量并对其进行精确度检验.若特征视差矢量不够精确,则其所在块将重新进行小范围的块匹配.若块匹配误差仍太大则将其分裂为四个子块重新匹配.与传统块匹配算法相比,新方法能获得较为精确和平滑的视差场,提高重建后的图像质量.  相似文献   

4.
立体匹配算法在图像弱纹理区和重复纹理区存在匹配困难、误差大的问题,为此提出一种基于改进代价计算和视差候选策略的立体匹配算法.首先结合改进的Census变换和自适应加权融合的双向梯度信息来计算初始匹配代价,提高代价计算的可靠性.其中:为传统Census变换增加内圈编码,提高邻域信息利用率,同时降低噪声的影响;利用自适应权...  相似文献   

5.
针对现有立体匹配算法复杂、耗时较长的特点,提出了一种基于加权匹配代价和色彩分割的立体匹配算法。算法引入一种基于梯度差算子与绝对差算子加权的匹配代价计算初始视差。根据基于色彩分割的视差假设,采用Mean-Shift算子对图像进行分割,用分割后的图像作为模板优化初始视差。实验结果表明,该算法提高匹配精度和速度,具有良好的实用价值。  相似文献   

6.
基于双目立体视觉的偏转线圈测量方法研究   总被引:2,自引:0,他引:2       下载免费PDF全文
管业鹏  童林夙  陈娜 《电子学报》2003,31(9):1382-1385
立体匹配过程中,由于视差搜索范围不易确定,使匹配极易出现错误.文中提出了一种灰度相关多峰值视差绝对值极小化立体匹配新方法.通过对最大灰度相关匹配法的分析,指出最大灰度相关系数所对应的点并不完全对应于正确匹配,由此提出了灰度相关匹配多峰值法,以获得初始匹配集.结合视差梯度约束,对所得初始匹配集进行部分优化,采用视差绝对值极小化确定唯一匹配点.通过对一形状复杂且不规则物体(偏转线圈)及已知三维坐标的标准件的三维重建,证实了文中所提方法的有效性,可满足三维不规则物体(偏转线圈)三维空间坐标的非接触精密测量要求.  相似文献   

7.
针对现有局部立体匹配算法在计算匹配代价时, 不能很好区分强弱纹理区域,及在视差计算过程 中,不能很好的解决视差歧义问题,提出一种融合梯度特性与置信度的立体匹配算法。首先 计算梯度特 征,并根据梯度特征信息选择匹配代价计算的匹配窗口,针对强弱不同纹理区域选择不同尺 寸的匹配窗 口,有效的提高了立体匹配精度,降低了误匹配率;然后在视差计算中引入置信度约束条件 ,解决了视差 计算中视差歧义的问题,提高了立体匹配算法的稳定性与精度;最后使用水平与垂直方向交 叉区域检测进 行奇异值的修正。实验结果表明,该算法在Middlebury数据集中31对 立体图像对的平均误匹配率为7.96%,有效的提高了立体匹配精度。  相似文献   

8.
基于SIFT 匹配的多视点立体图像零视差调整   总被引:2,自引:0,他引:2       下载免费PDF全文
针对目标跟踪过程中目标可能出现的快速变化和严重遮挡等问题,提出了一种基于新的子空间表示的目标跟踪算法。采用距离不变量对尺度不变特征变换(SIFT)特征点匹配对进行提纯。用提纯后的特征点匹配对,通过线性拟合得到仿射变化参数。在粒子滤波的理论框架下,采用快速的迭代算法,建立目标的主分量(PCA)子空间表示,结合计算得到的仿射变化参数,构造有效的目标观测模型完成跟踪。同时,采用在线学习的方法对SIFT特征点和PCA子空间进行定时更新。大量实验表明,提出的算法能快速有效地完成对姿态和形状剧烈变化的目标的精确跟踪。  相似文献   

9.
针对多线结构光测量中测量效率与测量精度相矛盾的问题,提出了一种融合区域数字图像相关匹配的快速三维测量方法。采用双边滤波和大津阈值法对图像进行预处理,利用重心法提取初始条纹中心点。用双三次插值法提升初始点的局部邻域分辨率,在局部邻域内再次利用灰度重心法提高中心点的提取精度。以左图像提取的中心线为基准,利用数字图像相关法在右图像中心线附近搜索基准对应的立体匹配点,大大缩小了数字图像相关法的搜索范围,提高了测量效率和立体匹配精度。对标准块规的测量实验结果表明,该方法的中心线提取速度为Steger法的3.29倍,均方根误差相比传统极线约束立体匹配法减小了68.57%。  相似文献   

10.
当前无线网络流量地理分布不均且可用网络资源有限,因而开展拆闲补忙工作极为必要。为合理投放无线网络资源以保证网络性能,提出了一种针对小区域范围的多标签流量预测算法。该算法结合历史流量信息,根据无线用户偏好特性建立多标签流量预测模型,并通过梯度提升树算法得到预测结果。仿真结果表明,相比于广泛应用的移动平均自回归(Autoregressive Integrated Moving Average, ARIMA)和神经网络预测方法,多标签预测模型在对小区域突发性流量的预测上具有很大的优越性。  相似文献   

11.
针对数字全息对物体三维形貌的重构与测量,提出了一种将数字全息术与立体匹配术相结合的三维测量方法。首先利用离轴菲涅耳数字全息系统,采集三维物体的单幅离轴菲涅耳全息图;然后将获取的数字全息图分为两个部分,分别进行数值再现,可以得到两个再现像,两个再现像存在视差。最后利用立体匹配算法获取两幅视图再现像的视差,根据几何关系获取物体的深度信息,重构物体的三维形貌。实验中,分别对不连续物体和连续物体进行三维形貌的重构,得到了准确的三维物体深度信息。数值模拟和初步实验结果表明该方法有效可行。  相似文献   

12.
传统的λ/4(λ为波长)共振透射的匹配技术所制备的匹配层已不能满足当前业界对高性能的要求。该文从理论上研究了一维变梯度密度材料和变截面波导管两种梯度阻抗匹配层模型的声传播情况,推导出阻抗梯度渐变材料的声能透射率。对多种形状变截面管道进行了数值模拟,分析了匹配层厚度及截面形状对透射率的影响。数值结果表明,变截面管道匹配层具有在高频声强全部透射的性能,且匹配层越厚,低频截止频率越低,用作超声波换能器的匹配层能提升换能器的性能。  相似文献   

13.
“勇气”号火星车在火星的顺利着陆与发回的大量三维全景照片引起了世人的关注〔1〕。本文详细的介绍了火星车上的三维全景照相系统的工作原理和系统结构,分析了三维全景照相设备的主要构成和关键技术参数,分析了全景照相机的参数标定方法和装置。本文还从双目视觉的基本原理和计算公式出发,从全景照相系统提供的一对双目照片中提取了部分火星表面的视差图。  相似文献   

14.
闫书保 《电子科技》2011,24(2):15-18
提出微带全向天线天线,结合微带渐变结构和λg/4短路匹配枝节结构,从而改善了天线的阻抗匹配,降低了天线的电压驻波比,提高了天线的增益.天线实物采用7节微带单元级联,在2 400~2 483.5 MHz的频带范围内实测VSWR<1.35,天线实测平均增益为9 dBi.采用更多的微带单元级联,可提高天线增益,适用于移动通信...  相似文献   

15.
针对模拟前端设计过程中,模拟前端与天线的匹配问题,文章分析了天线的各性能参数对于增益可调模拟前端的噪声系数、灵敏度、动态范围等技术指标的影响,得出了模拟前端的噪声系数和输出三阶截点的具体表达式,为模拟前端的设计提供了理论依据。  相似文献   

16.
江金光  何怡刚  吴杰 《半导体学报》2003,24(12):1324-1329
提出了一种12位80 MHz采样率具有梯度误差补偿的电流舵D/ A转换器实现电路.12位DAC采用分段式结构,其中高8位采用单位电流源温度计码DAC结构,低4位采用二进制加权电流源DAC结构,该电路中所给出的层次式对称开关序列可以较好地补偿梯度误差.该D/ A转换器采用台湾U MC 2层多晶硅、2层金属(2 P2 M) 5 V电源电压、0 .5μm CMOS工艺生产制造,其积分非线性误差小于±0 .9L SB,微分非线性误差小于±0 .6 L SB,芯片面积为1.2 7mm×0 .96 m m ,当采样率为5 0 MHz时,功耗为91.6 m W.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号