首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
月球车视觉系统对匹配速度和鲁棒性要求较高,提出一种基于图像特征的特征点匹配算法。特征点的提取采用Barnard算法和LoG算子共同作用得到。原图像同时采用Bamard算法进行特征提取和LoG算子进行噪声滤波和边缘提取,然后将二者的计算结果进行”与”操作得到最终的特征图像。然后通过阈值进一步处理噪声和选择待匹配点。最后用计算图像序列中像素差的平方和的方法来计算每对待匹配点的匹配程度,得到匹配点对。仿真结果表明,单点匹配和多点匹配并将无匹配点处理后得到的结果都令人满意。  相似文献   

2.
面向流水线结构的并行匹配算法   总被引:3,自引:0,他引:3  
本文提出一种面向流水线计算机的立体视觉并行匹配算法,使立体视觉算法所需的低层视觉信息处理和特征匹配都能在具有高速视频总线的流水线计算机中完成,这样既简化了视觉系统的结构,又大大提高了处理速度.匹配中应用了排序、方向和幅度约束作为相似性判断,并根据匹配点邻域中的视差梯度,利用松弛迭代法提高匹配的可靠性.算法已在PIPE流水线计算机上实现,256×256图像的立体视觉算法可在10秒内完成.  相似文献   

3.
提出图像特征空间概率分布参数时变的立体视觉匹配问题。立体视觉匹配算法通常是针对时不变提出的。因此,对于概率分布时变的图像特征空间而言,这些方法均不能有效地实现动态立体视觉匹配。针对这一问题,提出的方法是对图像分割边缘构建动态贝叶斯网,结合贝叶斯学习并充分利用其学习所获得的图像空间概率模型变化演进的规律,得到较准确、平滑地图分割的动态结果,以此作为基元间的对应性,在边缘区域进行置信传播,实现图像的动态立体视觉匹配。  相似文献   

4.
研究双目立体视觉技术,特征的提取和匹配是双目视觉的最基本的问题。目前,SIFT已经被证明鲁棒性最好的局部不变特征描述符。但是SIFT算法产生的误匹配较多,精度偏低,为了解决这一问题,同时降低算法特征提取与匹配的复杂度,达到双目立体视觉实时性的要求,文中提出了一种结合小波变换和SIFT特征点的双目立体视觉匹配方法。首先,对双目视觉系统采集的左、右图像进行小波分解,把分解得到的低频图像作为输入,用SIFT算法进行特征点的初始匹配,再利用极线约束的理论求得精确匹配。实验结果表明,该方法具有较强的适应性,能够在减少误匹配的同时,大大加快运算速度。  相似文献   

5.
为了提高双目视觉过程中对火源图像立体匹配的准确性和匹配速度,提出基于DLT的双目视觉火源图像立体匹配新算法。首先用直接线性变换DLT算法对火源图像进行图像校正,其次用Harris算法对其进行特征点提取,最后利用SURF算法对提取的特征点进行特征向量及特征向量在多维空间中对应点之间的欧式距离进行计算,得到两个特征点的相似程度并给予正确匹配结果。实验结果表明,该算法提高了火源图像立体匹配的准确性和匹配速度,适用于大空间建筑双目视觉火灾自动定位系统,具有一定的应用价值。  相似文献   

6.
针对室内环境下视觉图像匹配速度慢、精度低等问题,提出一种基于奇异值分解结合Harris的快速匹配新方法.随机采集两组相邻的视觉图像作为研究对象,利用奇异值分解(SVD)对视觉图像进行压缩与重构.利用Harris角点检测算法对重构后的视觉图像进行特征角点的检测,然后结合归一化互相关(NCC)算法对视觉图像的特征角点进行一次粗匹配,最后采用随机抽样一致性(RANSAC)方法对粗匹配结果进行校正,实现特征点对的精匹配.实验表明:与传统的归一化互相关模板匹配算法相比,该算法不仅将视觉图像在室内环境下的误匹配率降低至2.35%,而且图像匹配的速率提升了3倍.  相似文献   

7.
以作为游戏输入的双目视觉系统为载体,分析了双目立体视觉系统在此环境中需要满足的一些特殊的约束,结合双目视觉本身的经典约束,构造一种可以同时满足实时性和一定的精确性的图像特征点匹配方法。此方法先使用极几何校正和单应性约束求取图像偏差,然后采用快速匹配算法在局部范围内得到匹配点,充分满足了系统对实时性和精确性的要求。  相似文献   

8.
随着人们在生产、生活过程中对获取更加优质视觉信息的要求逐步提高,图像拼接技术成为数字图像处理领域中的热点与重点研究内容。先采用SIFT这一图像特征点检测与匹配的基础算法对图像进行特征点的粗匹配,再使用RANSAC算法对特征点进行提纯,得到最优特征点。仿真试验验证了该图像拼接技术可以提高图像的拼接效果,增强算法的鲁棒性。  相似文献   

9.
《软件工程师》2019,(3):5-8
针对双目视觉立体图像特征点匹配质量不好导致定位精度低的问题,本文提出改进SURF匹配的特征点定位方法。在改进的SURF匹配算法中,采用双向匹配、NNDR约束、对称性约束、极线约束和交叉匹配约束的方法,提高了图像特征点匹配的质量。在双目视觉特征点定位中,采用公垂线段中点法具有更高的特征点定位精度。实验证明,该算法的特征点定位精度更高,同时可以达到实时三维重建效率。  相似文献   

10.
基于仿射迭代模型的特征点匹配算法   总被引:1,自引:1,他引:1       下载免费PDF全文
图像序列中的特征点匹配是计算机视觉中的一个基本问题,也是目标识别、图像检索以及3维重建等问题的基础。为了提高图像匹配的精度,提出了一种针对两幅图像的高精度特征点自动匹配算法。该算法首先分析并提出两幅图像中相应特征点的邻域窗口之间的单应映射可以用仿射变换模型来近似;然后通过快速的基于仿射变换模型的迭代优化方法,不仅估计并矫正了相应邻域窗口之间的透视畸变,同时还补偿了在特征点检测阶段对相应特征点的定位误差,从而使匹配结果达到子像素级精度;最后通过真实图像的实验以及与现有算法的比较结果表明,该算法不仅得到了更多的匹配关系,还提高了特征点匹配的精度。  相似文献   

11.
魏玮  赵露  刘依 《测控技术》2020,39(2):115-120
人脸姿态分类在智能人机交互、虚拟现实、智能控制以及人脸识别等多个领域都有广泛的应用。由于人脸姿态分类过程中存在不同角度间特征重叠率高的问题,导致其分类精度过低。为提高人脸姿态分类的准确率与鲁棒性,提出了基于迁移学习的人脸姿态分类方法。该方法利用卷积神经网络的特征提取和学习能力,对特征进行识别和分类,从而得到单方向人脸姿态的训练参数。利用迁移学习,将卷积神经网络训练好的参数应用于训练两个方向的人脸姿态模型中。使用该方法在CAS-PEAL数据集上进行了实验,最终结果的准确率达到98.7%,并且与AlexNet、VGGNet和ResNet等网络模型做对比实验,得到了更好的人脸姿态分类效果。实验结果表明,所提出的方法显著提高了人脸姿态分类的准确率与鲁棒性。  相似文献   

12.
Aiming at the complexity of traditional methods for feature extraction about satellite cloud images, and the difficulty of developing deep convolutional neural network from scratch, a parameter-based transfer learning method for classifying typhoon intensity is proposed. Take typhoon satellite cloud images published by Japan Meteorological Agency, which includes 10 000 scenes among nearly 40 years to construct training and test typhoon datasets. Three deep convolutional neural networks, VGG16, InceptionV3 and ResNet50 are trained as source models on the large-scale ImageNet datasets. Considering the discrepancy between low-level features and high-level semantic features of typhoon cloud images, adapt the optimal number of transferable layers in neural networks and freeze weights of low-level network. Meanwhile, fine-tune surplus weights on typhoon dataset adaptively. Finally, a transferred prediction model which is suitable for small sample typhoon datasets, called T-typCNNs is proposed. Experimental results show that the T-typCNNs can achieve training accuracy of 95.081% and testing accuracy of 91.134%, 18.571% higher than using shallow convolutional neural network, 9.819% higher than training with source models from scratch.  相似文献   

13.
14.
针对传统卫星云图特征提取方法复杂且深度卷积神经网络(Deep Convolutional Neural Network, DCNN)模型开发困难的问题,提出一种基于参数迁移的台风等级分类方法。利用日本气象厅发布的近40 a 10 000多景台风云图数据,构建了适应于迁移学习的台风云图训练集和测试集。在大规模ImageNet源数据集上训练出3种源模型VGG16,InceptionV3和ResNet50,依据台风云图低层特征与高层语义特征的差异,适配网络最佳迁移层数并冻结低层权重,高层权重采用自适应微调策略,构建出了适用于台风小样本数据集的迁移预报模型T-typCNNs。实验结果表明:T-typCNNs模型在自建台风数据集上的训练精度为95.081%,验证精度可达91.134%,比利用浅层卷积神经网络训练出的精度高18.571%,相比于直接用源模型训练最多提高9.819%。  相似文献   

15.
针对未知环境下移动机器人平稳上坡控制对坡度感知精度的要求,本文提出了一种基于迁移学习的移动机器人单帧图像坡度检测算法.利用室内图像标准数据集训练深度卷积神经场-全连接超像素池化网络(deep convolutional neural field-fully connected superpixel pooling ne...  相似文献   

16.
目的 卫星图像往往目标、背景复杂而且带有噪声,因此使用人工选取的特征进行卫星图像的分类就变得十分困难。提出一种新的使用卷积神经网络进行卫星图像分类的方案。使用卷积神经网络可以提取卫星图像的高层特征,进而提高卫星图像分类的识别率。方法 首先,提出一个包含六类图像的新的卫星图像数据集来解决卷积神经网络的有标签训练样本不足的问题。其次,使用了一种直接训练卷积神经网络模型和3种预训练卷积神经网络模型来进行卫星图像分类。直接训练模型直接在文章提出的数据集上进行训练,预训练模型先在ILSVRC(the ImageNet large scale visual recognition challenge)-2012数据集上进行预训练,然后在提出的卫星图像数据集上进行微调训练。完成微调的模型用于卫星图像分类。结果 提出的微调预训练卷积神经网络深层模型具有最高的分类正确率。在提出的数据集上,深层卷积神经网络模型达到了99.50%的识别率。在数据集UC Merced Land Use上,深层卷积神经网络模型达到了96.44%的识别率。结论 本文提出的数据集具有一般性和代表性,使用的深层卷积神经网络模型具有很强的特征提取能力和分类能力,且是一种端到端的分类模型,不需要堆叠其他模型或分类器。在高分辨卫星图像的分类上,本文模型和对比模型相比取得了更有说服力的结果。  相似文献   

17.
水对光的吸收和散射效应降低了水下图像的质量,水下图像的可视范围受到限制,复杂水下场景下的鲁棒性和精确性问题使得特征提取与匹配成为一项具有挑战性的任务。为了更好地配准水下图像,提出了一种改进CNN-RANSAC的水下图像特征配准方法,首先通过基于深度卷积神经网络的水下图像增强方法对水下图像进行增强预处理,通过水下图像分类数据集迁移学习训练VGGNet-16网络框架,利用修改后的网络框架进行特征提取,生成鲁棒的多尺度特征描述符与特征点,经过特征粗匹配与动态内点选择,使用改进的RANSAC方法剔除误匹配点。在大量水下图像数据集上进行了充分的特征提取和特征匹配实验,与基于SIFT和SURF的配准方法相比,该方法能够检测到更多的特征点,实现了匹配正确率的大幅度提高。  相似文献   

18.
何国豪  翟涌  龚建伟    王羽纯  张曦 《智能系统学报》2022,17(6):1145-1153
针对目前基于双目视觉的高精度立体匹配网络消耗计算资源多、运算时间长、无法用于智能驾驶系统实时导航的问题,本文提出了一种能够满足车载实时性和准确性要求的动态融合双目立体匹配深度学习网络。该网络加入了基于全局深度卷积的注意力模块完成特征提取,减少了网络层数与参数数量;通过动态代价级联融合、多尺度融合以及动态视差结果修复优化3D卷积计算,加速了常用的3D特征融合过程。将训练好的模型部署在车载硬件例如NVIDIA Jetson TX2上,并在公开的KITTI立体匹配数据集上进行测试。实验显示,该方法可以达到与目前公开在排行榜中最好方法相当的运行精度,3像素点误差小于6.58%,并且运行速度小于0.1 s/f,能够达到车载实时使用性能要求。  相似文献   

19.
In this paper, we proposed a multi-task system that can identify dish types, food ingredients, and cooking methods from food images with deep convolutional neural networks. We built up a dataset of 360 classes of different foods with at least 500 images for each class. To reduce the noises of the data, which was collected from the Internet, outlier images were detected and eliminated through a one-class SVM trained with deep convolutional features. We simultaneously trained a dish identifier, a cooking method recognizer, and a multi-label ingredient detector. They share a few low-level layers in the deep network architecture. The proposed framework shows higher accuracy than traditional method with handcrafted features, and the cooking method recognizer and ingredient detector can be applied to dishes which are not included in the training dataset to provide reference information for users.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号