首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 203 毫秒
1.
非刚性稠密匹配大位移运动光流估计   总被引:3,自引:0,他引:3       下载免费PDF全文
张聪炫  陈震  熊帆  黎明  葛利跃  陈昊 《电子学报》2019,47(6):1316-1323
光流场是目标检测,无人机定位等众多计算机视觉任务的重要基础.本文针对非刚性大位移运动等困难运动类型图像序列光流计算的准确性与鲁棒性问题,提出一种基于非刚性稠密匹配的TV-L1(Total Variational with L1 norm,TV-L1)大位移光流计算方法.首先,使用非刚性稠密块匹配计算图像序列初始最近邻域场,其次根据图像相邻块区域的相似性消除初始最近邻域场中的非一致性区域以得到准确的图像最近邻域场.然后,在图像金字塔分层计算框架下,将图像最近邻域场引入基于非局部约束的TV-L1光流估计模型,通过Quadratic Pseudo-Boolean Optimization(QPBO)融合算法在金字塔分层图像光流计算时对TV-L1模型光流估计进行大位移运动补偿.最后,采用标准测试图像序列对本文方法和当前代表性的变分方法LDOF(Large Displacement Optical Flow,LDOF)、Classic+NL、NNF(Nearest Neighbor Fields,NNF)以及深度学习方法FlowNet2.0进行对比分析.实验结果表明,本文方法能有效提高非刚性运动、大位移运动以及运动遮挡等困难运动类型光流估计的精度与鲁棒性.  相似文献   

2.
单目图像序列光流三维重建技术研究综述   总被引:2,自引:0,他引:2       下载免费PDF全文
张聪炫  陈震  黎明 《电子学报》2016,44(12):3044-3052
由单目图像序列光流重建物体或场景的三维运动与结构是计算机视觉、图像处理与模式识别等领域的重要研究内容,在机器人视觉、无人机导航、车辆辅助驾驶以及医学影像分析等方面具有重要的应用。本文首先从精度与鲁棒性等方面对单目图像序列光流计算及三维重建技术近年来取得的进展进行综述与分析。然后采用Middlebury测试图像序列对HS、LDOF、CLG-TV、SOF、AOFSCNN 和 Classic +NL 等典型光流算法以及 Adiv、RMROF、Sekkati 和DMDPOF等基于光流的间接与直接重建方法进行实验对比分析,指出各对比方法的优点与不足,归纳各类方法的性能特点与适用范围。最后对利用分数阶微分模型、非局部约束、立体视觉以及深度线索解决亮度突变、非刚性运动、运动遮挡与模糊情况下光流计算及重建模型的局限性与鲁棒性问题进行总结与展望。  相似文献   

3.
基于图像局部结构的区域匹配变分光流算法   总被引:1,自引:0,他引:1       下载免费PDF全文
陈震  张聪炫  晏文敬  吴燕平 《电子学报》2015,43(11):2200-2209
针对变分光流算法的计算精度与鲁棒性问题,提出一种基于图像局部结构的区域匹配变分光流算法.光流估计能量泛函的数据项采用图像结构守恒与灰度守恒相结合,并引入规则化非平方惩罚函数,保证了光流估计的精度与鲁棒性;平滑项采用随图像局部结构自适应变化的扩散策略结合区域匹配约束函数能够有效地保护运动物体或场景的边缘轮廓信息;在光流计算过程中引入金字塔分层细化策略克服图像序列中大位移运动引起的像素点漂移现象,并采用数学方法证明光流估计模型的鲁棒性和收敛性.多组实验表明,本文方法在图像中存在剧烈光照变化、非刚性物体复杂运动以及多目标大位移运动等情况下具有较高的计算精度、较好的鲁棒性.  相似文献   

4.
慕阳 《电视技术》2023,(12):72-75
由于环境和设备的影响,图像往往受到不同程度的噪声干扰。为了有效地利用图像所包含的信息,通常需要对图像进行去噪处理。因此,图像去噪作为图像处理最基本的步骤,已经成为当前研究的重点内容之一。通过对现在常用的图像降噪算法的研究,选定自适应中值滤波对图像进行针对椒盐噪声的降噪,使用整体嵌套边缘检测(Holistically-Nested Edge Detection,HED)算法对图片进行边缘提取,辅助保留图像的边缘信息,使得图像的边缘信息得到更好的保留。  相似文献   

5.
张慧  韩新宁  韩惠丽 《红外技术》2022,44(6):598-603
为提高融合图像更加适应人类视觉感知,并解决可见光图像受光线、天气等影响而导致融合效果不佳的问题,本文提出了一种基于滚动引导滤波的可见光与红外图像融合方法。首先,利用引导滤波对可见光图像的内容进行增强,然后,利用滚动引导滤波将可见光和红外图像进行多尺度分解为小尺度层、大尺度层和基础层。在大尺度层的信息合成的过程中利用加权最小二乘法融合规则解决融合时可见光与红外图像不同特征带来的困扰,提高融合图像的视觉效果;在基础层的融合过程中采用优化的视觉显著图融合规则,减少对比度损失。最后,将大尺度层、小尺度层与基础层合并为融合后的图像。实验结果表明所给方法在提高视觉感知、细节处理、边缘保护等方面都有良好的效果。  相似文献   

6.
基于变分的SAR图像目标特征增强方法   总被引:1,自引:0,他引:1  
研究了SAR图像目标特征增强的变分方法.通过分析P-M扩散方程中的扩散系数,得出梯度(Canny)边缘检测算子对SAR图像的非恒虚警性使得滤波后图像的边缘变得模糊.而ROA算子能有效地检测出图像中的边缘,但较难检测出图像中的强散射点目标.基于SAR幅度图像中相干斑噪声的Rayle igh分布,从最大后验概率估计出发,结合ROA边缘检测图像以及SAR幅度信息来构造扩散系数,建立SAR图像目标特征增强的变分模型.实测SAR图像处理结果显示该方法在充分抑制均匀区域的相干斑噪声的同时能较好地保护并增强图像的边缘和强散射区域.  相似文献   

7.
考虑到人类视觉系统(HVS)对边缘信息敏感且屏幕图像中包含大量边缘信息,本文提出采用边缘信息的屏幕图像质量评价方法。该方法首先从空域和频域分别提取参考和失真屏幕图像的边缘信息进而得到边缘信息相似度图,接着基于边缘信息提取屏幕图像中人眼感兴趣区域,最后利用感兴趣区域加权对所得边缘相似度图进行融合计算以获取最终评价分数值。实验结果表明所提算法具有较高的图像质量评价主客观一致性,其性能优于多个最新图像质量评价方法。   相似文献   

8.
提出一种新的仿生图像融合算法。首先模拟人类视觉注意特征,计算出视觉显著度图并采用视觉显著度图制导融合。使得源图像中的视觉显著区域得到突出,对于分量进行整合,然后整体融合,这样使得融合结果包含更多的可视信息,对于的异源图像融合具有良好效果。通过对比实验结果,分析结构相似度和源图像传递到融合图像的边缘信息量的参数表明算法的有效性。  相似文献   

9.
基于混合迭代滤波的SAR图像相干斑抑制   总被引:1,自引:0,他引:1  
该文将变窗Lee滤波与自蛇扩散结合,提出了一种抑制SAR图像相干斑噪声的混合迭代滤波新算法,并给出了SAR图像噪声方差的一种有效估计方法。该算法首先估计SAR图像局部统计参量,进而通过改进的变窗Lee滤波对SAR图像进行平滑去噪,接着利用自蛇扩散去除Lee滤波难以平滑的孤立点噪声与边缘噪声。在Lee滤波与自蛇扩散的混合迭代中,Lee滤波的窗尺度随迭代次数的增加而增大,从而在保护SAR图像边缘细节的同时,同质区得到更好平滑。实验结果表明,与已有多种抑斑算法相比,该文算法在SAR图像抑斑与边缘保护方面均获得了更好的性能。  相似文献   

10.
袁丽敏 《激光杂志》2023,(12):81-85
连续动态蒙太奇切换下多帧影视图像受到光影扰动导致视觉传达能力不好,提出基于激光视觉融合的多帧影视图像视觉传达设计方法。建立多帧影视图像激光视觉信息检测模型,构建连续动态蒙太奇切换下多帧影视图像的匹配滤波检测模型,根据对动态蒙太奇切换下多帧影视图像的先验视觉谱知识重构,提取多帧影视图像的激光视觉传感特征值,采用激光视觉融合技术实现对连续动态蒙太奇切换下多帧影视图像的噪点抑制和梯度增强,构建多帧影视图像的边缘轮廓检测模型,根据激光视觉融合结果实现对多帧影视图像的纹理边缘滤波和视觉重构,根据视觉重建结果实现对连续动态蒙太奇切换下多帧影视图像的视觉增强和传达设计。仿真结果表明,采用该方法进行多帧影视图像视觉传达设计的融合度水平较高,影视视觉传达能力较好,峰值信噪比较高,说明成像质量水平较高。  相似文献   

11.
The median filtering heuristic is considered to be an indispensable tool for the currently popular variational optical flow computation. Its attractive advantages are that outliers reduction is attained while image edges and motion boundaries are preserved. However, it still may generate blurring at image edges and motion boundaries caused by large displacement, motion occlusion, complex texture, and illumination change. In this paper, we present a non-local propagation filtering scheme to deal with the above problem during the coarse-to-fine optical flow computation. First, we analyze the connection between the weighted median filtering and the blurring of image edge and motion boundary under the coarse-to-fine optical flow computing scheme. Second, to improve the quality of the initial flow field, we introduce a non-local propagation filter to reduce outliers while preserving context information of the flow field. Furthermore, we present an optimization combination of non-local propagation filtering and weighted median filtering for the flow field estimation under the coarse-to-fine scheme. Extensive experiments on public optical flow benchmarks demonstrate that the proposed scheme can effectively improve the accuracy and robustness of optical flow estimation.  相似文献   

12.
This paper proposes a global mapping algorithm for multiple robots from an omnidirectional‐vision simultaneous localization and mapping (SLAM) approach based on an object extraction method using Lucas–Kanade optical flow motion detection and images obtained through fisheye lenses mounted on robots. The multi‐robot mapping algorithm draws a global map by using map data obtained from all of the individual robots. Global mapping takes a long time to process because it exchanges map data from individual robots while searching all areas. An omnidirectional image sensor has many advantages for object detection and mapping because it can measure all information around a robot simultaneously. The process calculations of the correction algorithm are improved over existing methods by correcting only the object's feature points. The proposed algorithm has two steps: first, a local map is created based on an omnidirectional‐vision SLAM approach for individual robots. Second, a global map is generated by merging individual maps from multiple robots. The reliability of the proposed mapping algorithm is verified through a comparison of maps based on the proposed algorithm and real maps.  相似文献   

13.
针对现有场景流计算方法在复杂场景、大位移和运动遮挡等情况下易产生运动边缘模糊的问题,提出一种基于语义分割的双目场景流估计方法.首先,根据图像中的语义信息类别,通过深度学习的卷积神经网络模型将图像划分为带有语义标签的区域;针对不同语义类别的图像区域分别进行运动建模,利用语义知识计算光流信息并通过双目立体匹配的半全局匹配方法计算图像视差信息.然后,对输入图像进行超像素分割,通过最小二乘法耦合光流和视差信息,分别求解每个超像素块的运动参数.最后,在优化能量函数中添加语义分割边界的约束信息,通过更新像素到超像素块的映射关系和超像素块到移动平面的映射关系得到最终的场景流估计结果.采用KITTI 2015标准测试图像序列对本文方法和代表性的场景流计算方法进行对比分析.实验结果表明,本文方法具有较高的精度和鲁棒性,尤其对于复杂场景、运动遮挡和运动边缘模糊的图像具有较好的边缘保护作用.  相似文献   

14.
Video action recognition is an important topic in computer vision tasks. Most of the existing methods use CNN-based models, and multiple modalities of image features are captured from the videos, such as static frames, dynamic images, and optical flow features. However, these mainstream features contain much static information including object and background information, where the motion information of the action itself is not distinguished and strengthened. In this work, a new kind of motion feature is proposed without static information for video action recognition. We propose a quantization of motion network based on the bag-of-feature method to learn significant and discriminative motion features. In the learned feature map, the object and background information is filtered out, even if the background is moving in the video. Therefore, the motion feature is complementary to the static image feature and the static information in the dynamic image and optical flow. A multi-stream classifier is built with the proposed motion feature and other features, and the performance of action recognition is enhanced comparing to other state-of-the-art methods.  相似文献   

15.
一种改进的总变分正则化图像盲复原方法   总被引:1,自引:0,他引:1  
传统的图像复原算法多数采用最小均方误差作为图像复原效果的评价标准,很少考虑人的视觉感受。本文在总变分盲复原算法的基础上结合Weber定律和正则化方法,运用不同的迭代表达式:在模糊辨识阶段,采用总变分正则化算法进行辨识;在图像复原阶段,采用Weber定律和正则化方法相结合。正则化的选择充分考虑图像的细节保持和边缘增强。实验结果采用基于人眼视觉感受的图像评价标准来验证。实验证明该算法在未知点扩散函数的情况下不但能有效的抑制噪声和消除纹波现象,而且还能有较好的视觉效果。  相似文献   

16.
为满足机器视觉系统精确检测的需要,保证所采集图像的质量,根据CCD的照度匹配原理,详细阐述了采集高质量图像的方法,包括在采集图像过程中设置图像参数和使用人工光源提高采集图像的质量。通过照明和曝光控制实验的综合验证,达到了预期提高所采集图像质量的目的。  相似文献   

17.
Adaptive filtering for color filter array demosaicking.   总被引:2,自引:0,他引:2  
Most digital still cameras acquire imagery with a color filter array (CFA), sampling only one color value for each pixel and interpolating the other two color values afterwards. The interpolation process is commonly known as demosaicking. In general, a good demosaicking method should preserve the high-frequency information of imagery as much as possible, since such information is essential for image visual quality. We discuss in this paper two key observations for preserving high-frequency information in CFA demosaicking: (1) the high frequencies are similar across three color components, and (2) the high frequencies along the horizontal and vertical axes are essential for image quality. Our frequency analysis of CFA samples indicates that filtering a CFA image can better preserve high frequencies than filtering each color component separately. This motivates us to design an efficient filter for estimating the luminance at green pixels of the CFA image and devise an adaptive filtering approach to estimating the luminance at red and blue pixels. Experimental results on simulated CFA images, as well as raw CFA data, verify that the proposed method outperforms the existing state-of-the-art methods both visually and in terms of peak signal-to-noise ratio, at a notably lower computational cost.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号