首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
基于Graph Cuts多特征选择的双目图像分割方法   总被引:1,自引:0,他引:1  
双目图像分割对后续立体目标合成与三维重建等应用至关重要。由于双目图像中包含场景深度信息,因此直接将单目图像分割方法应用于双目图像尚不能得到理想的分割结果。目前,大多数双目图像分割方法将双目图像的深度特征作为颜色特征的额外通道来使用,仅对颜色特征与深度特征做简单整合,未能充分利用图像的深度特征。文中基于多分类Graph Cuts框架,提出了一种交互式双目图像分割方法。该方法将颜色、深度和纹理等特征融合到一个图模型中,以更充分地利用不同特征信息。同时,在Graph Cuts框架中引入了特征空间邻域系统,增强了图像前景区域与背景区域内部像素点之间的关系,提高了分割目标的完整性。实验结果表明,所提方法有效提升了双目图像分割结果的精确度。  相似文献   

2.
视觉传感图像目标的特征变化幅度普遍较大,类别间样本不均衡,为了提高视觉传感图像关键目标识别效果,提出基于多数据集深度学习的视觉传感图像目标增强识别方法。采用颜色特征提取识别目标的特征量,通过计算视觉传感图像目标与背景区域的纹理特征差异,构建具有多特征参数的卷积神经网络模型。采用指数Laplace损失函数降低模型中类内特征变化幅度,调整不同类中心的特征间距离。结合自适应分块标记完成目标增强识别全过程。以火焰和车辆监控视觉传感图像为分析对象,设计测试实验。结果表明:所提方法的视觉传感图像增强效果较好,能够有效识别出视觉传感图像中火灾发生的异常行为和车辆的驾驶行为,且目标识别耗时低于6.2 s,证明所提方法的实际应用价值较高。  相似文献   

3.
通过流体力学技术对海浪波进行分析,实现船只的速度聚束调制;应用多重形态谱检测船只红外尾迹图像;以船只红外尾迹图像为样本,通过卷积神经网络收集红外尾迹图像深度特征;根据特征坐标生成图像关键目标区域,利用添加注意力模块,获得关键目标对象的特征图谱;采用网络训练优化图像的分类层与卷积层,确保所有层的分辨能力;增强图像细粒度信息实现船只轨迹精准识别,完成船只红外尾迹图像细粒度识别.实验证明,所提方法识别用时较短,特征表述详细,获得的识别精准度更高.  相似文献   

4.
设计、开发了西红柿采摘机器人的双目立体视觉系统,为机器人自动化采摘作业提供条件。采用VFW方法进行了实时采集系统的设计;基于成熟西红柿与背景之间颜色特征的差异信息进行图像分割来识别成熟西红柿;在摄像头标定和形心匹配的基础上,通过三维立体重建获取了西红柿果实的空间位置信息。实验结果表明:视觉系统的成熟果识别率可达到98%,图像分割识别整个过程消耗平均时间0.21s;当工作距离小于500mm时,除个别奇异点,测试距离误差绝对值可控制在14mm以内,能较好满足实际工作需要。  相似文献   

5.
周晨  刘磊 《计算机仿真》2022,39(2):212-216
传统的树种分类识别方法未进行最大池化操作,导致树种分类识别精度差。现引入分形维度进行林业遥感图像树种分类识别。通过ROI区域截取获取遥感树种图像,利用直方图均衡化方法进行原始图像预处理,以便获得高质量与清晰度的林业遥感图像;通过分形维度理论分析提取的林业遥感图像纹理特征,完成卷积神经网络模型的优化构建;将林业遥感图像纹理特征输入卷积层,经卷积层的卷积操作并计算特征数据,池化池通过最大池化操作卷积层输出的数据;通过Relu激活函数对林业遥感图像树种纹理特征进行深度分析,利用Softmax分类器实现树种分类识别。实验结果表明,上述方法预处理后的遥感图像质量高,且林业遥感图像树种分类识别的效率高,分类识别的时间低至35.7ms,分类识别的准确率高达95.62%。  相似文献   

6.
针对现有的图像质量评价方法较少利用人眼视网膜和视觉皮层的颜色编码机制,并且未能充分考虑图像色彩信息对图像质量的影响,提出了一种基于多视觉特征的可见光(微光)与红外彩色融合图像色彩和谐性客观评价模型.该模型在图像质量评估中融入了更多的颜色信息,综合考虑多种人眼视觉特征包括视觉对立色彩特征、色彩信息波动特征和高级视觉内容特征,经过特征融合和支持向量回归训练,实现彩色融合图像的色彩和谐性客观评价.采用3种典型场景融合图像数据库进行实验比较与分析.实验结果表明,与现有的8种图像质量客观评价方法相比,所提出的方法与人眼主观感受更加一致,具有较高的预测准确度.  相似文献   

7.
雨滴会降低户外拍摄图像质量,影响图像视觉效果及后续图像分析工作。针对目前去雨算法存在颜色失真、去雨过度化等问题,为了提高计算机视觉算法在中、大雨天气下的准确性,提出多尺度DenseTimeNet(密集时间序列卷积神经网络)的单幅图像去雨方法。该网络由多个尺度DenseTimeNetBlock(密集时序卷积网络密集块)组成,通过卷积下采样技术得到不同尺度下雨线特征信息与降低图像维度后利用时域卷积寻找的时间维度特征信息。在不同维度下学习雨景图和无雨图之间的映射关系,网络主体由密集卷积块和残差网络组成,可加速算法收敛速度,更深度学习图像纹理特征,使特征信息在网络结构进行深度传播,可以更好地复原残损图像。在不同方向,不同大小的雨滴图像上对所提方法进行验证,实验结果表明,该方法相较于现有算法,图像去雨效果良好。  相似文献   

8.
针对计算视觉领域图像实例检索的问题,提出了一种基于深度卷积特征显著性引导的语义区域加权聚合方法。首先提取深度卷积网络全卷积层后的张量作为深度特征,并利用逆文档频率(IDF)方法加权深度特征得到特征显著图;然后将其作为约束,引导深度特征通道重要性排序以提取不同特殊语义区域深度特征,排除背景和噪声信息的干扰;最后使用全局平均池化进行特征聚合,并利用主成分分析(PCA)降维白化得到图像的全局特征表示,以进行距离度量检索。实验结果表明,所提算法提取的图像特征向量语义信息更丰富、辨识力更强,在四个标准的数据库上与当前主流算法相比准确率更高,鲁棒性更好。  相似文献   

9.
基于双目视觉的水下海参尺寸自动测量方法   总被引:2,自引:0,他引:2       下载免费PDF全文
水下捕捞机器人在进行海参捕捞作业时,需要对海参进行精选分级。然而光视觉系统在水中的折射现象严重影响了海参尺寸的精确测量。因此,利用水下双目标定方法,求解水下相机模型参数,消除水下光线折射造成的图像失真,并在此基础上,提出了一种水下海参自动检测与尺寸测量方法。在左目矫正图像上,利用预先训练的YOLOv3海参检测模型,进行海参自动检测和感兴趣区域定位,并利用双目矫正图像构建当前水下场景深度信息。利用融合颜色和场景深度信息的高斯模型,构建新颖的GrabCut-RGBD图像分割方法,在感兴趣区域上分割二维海参目标。利用凸包与旋转卡壳算法,在海参目标图像上寻找最佳尺寸测量点,通过三角测量获取最佳测量点三维坐标,实现海参尺寸的自动测量。实验结果表明,所提方法在0.5~1.5 m范围内平均误差为1.65%,能较好地实现海参尺寸的水下测量。  相似文献   

10.
随着科技的进步,采摘机器人各个部分的系统也日益完善.其中,机器人视觉定位的系统设计很大程度影响了其工作效率,尤其是在目标检测速率、采摘果实准确率以及采摘目标环境适应度方面.本次研究提出利用双目立体视觉系统获取油茶果目标图像,并采集计算深度信息,制作自己的油茶果VOC数据集,采用YOLOv3目标检测算法来实现复杂环境下油...  相似文献   

11.
机器视觉技术在荔枝识别与定位研究中的应用   总被引:1,自引:0,他引:1  
为解决串型荔枝图像识别和定位问题,提出以Harris与SIFT算法融合的采摘点计算与匹配为基础,进行平行双目立体视觉模型下采摘点定位的研究方案。首先对荔枝YCbCr色彩空间的Cr灰度图进行二次阈值分割,分类识别出荔枝串、荔枝果与结果母枝。其次,提取识别果实区域的最小外接矩形、质心等特征信息,结合在结果母枝上检测的Harris特征点计算出采摘点的二维图像坐标,并对计算采摘点进行基于SIFT向量搜索的立体匹配。最后,对计算采摘点进行视觉定位及其深度误差分析实验,实验数据表明:在354~590?mm距离范围内,插值补偿后的采摘点的定位深度误差小于10?mm,能够较好满足荔枝采摘机器人的现有技术要求。  相似文献   

12.
交通标志对车辆交通起到重要作用和意义,而智能交通中交通标志识别由于标志特征提取效果差,导致识别率低、识别时间长,因此,提出一种新的基于视觉图像与激光点云融合的交通标志快速识别方法。采用双边滤波方法预处理原始激光点云数据;通过归一化处理得到视觉图像激光点云融合的目标空间激光点云位置测距数值。通过测距值获取目标图像位置,归一化处理交通标志视觉图像,引入k均值聚类算法(k-means clustering algorithm)二聚类处理图像,采用制作的切割模板切割图像感兴趣区域(ROI),提取交通标志图像的深度特征,结合卷积神经网络二次过滤特征,重新标定二次过滤后的特征,最终利用卷积神经网络模型实现交通标志快速识别。经实验对比证明,采用所提方法的提取各个类型交通标志特征的提取效果较好,并且识别率达到89.74%,识别时间仅为13.1s,干扰下识别时间最高仅为15.1s,验证了该方法可以快速且准确识别各个类型的交通标志。  相似文献   

13.
目前立体图像质量评价算法缺乏可靠的预测性能,主要表现在研究人类视觉系统时生物学理论薄弱,并且已有的浅层模型无法模拟出视觉信息复杂的处理过程。针对上述问题,提出一种基于交互式卷积神经网络的无参考立体图像质量评价算法。根据初级视觉区域的双目视觉机制,融合左、右视图生成独眼特征图,并采用高斯差分算法提取左、右视图边缘信息,计算边缘求和以及差分特征图;搭建交互式卷积神经网络,整合特征图,实现深度特征学习和质量回归预测。在LIVE立体图像库上的Pearson线性相关系数(Pearson Linear Correlation Coefficient, PLCC)达到0.95以上,结果表明采用该算法能有效地解决失真立体图像质量评价问题。  相似文献   

14.
针对当前遥操作工程机器人双目视觉定位技术匹配精准度低,导致定位误差过大的问题,提出种基于OpenCV改进的遥操作工程机器人双目视觉定位技术。在分析HSV色彩空间后,建立适合工程机器人的颜色特征识别空间体系,通过分析图像特征及运动坐标确定圆形光点,利用提供的靶点目标,创建模板后通过双目视觉获取具有靶点特征的其他图像,将图像代入OpenCV技术函数库中。在OpenCV技术函数库中通过光流法对图像进行函数匹配,应用将目标的背景模型与图像的处理方式分割开来,提取背景与干扰因素的全部信息,利用二值化阈值处理运动目标的形态,实现无干扰图像显示,确保定位结果的准确性。实验结果表明,基于OpenCV的遥操作工程机器人双目视觉定位技术能够有效提高匹配精度,降低定位误差,具有一定的实际应用价值。  相似文献   

15.
目的 随着深度卷积神经网络广泛应用于双目立体图像超分辨率重建任务,双目图像之间的信息融合成为近年来的研究热点。针对目前的双目图像超分辨重建算法对单幅图像的内部信息学习较少的问题,提出多层次融合注意力网络的双目图像超分辨率重建算法,在立体匹配的基础上学习图像内部的丰富信息。方法 首先,利用特征提取模块从不同尺度和深度来获取左图和右图的低频特征。然后,将低频特征作为混合注意力模块的输入,此注意力模块先利用二阶通道非局部注意力模块学习每个图像内部的通道和空间特征,再采用视差注意力模块对左右特征图进行立体匹配。接着采用多层融合模块获取不同深度特征之间的相关信息,进一步指导产生高质量图像重建效果。再利用亚像素卷积对特征图进行上采样,并和低分辨率左图的放大特征相加得到重建特征。最后使用1层卷积得到重建后的高分辨率图像。结果 本文算法采用Flickr1024数据集的800幅图像和60幅经过2倍下采样的Middlebury图像作为训练集,以峰值信噪比(peak signal-to-noise ratio,PSNR)和结构相似性(structural similarity,SSIM)作为指标。实验在3个...  相似文献   

16.
设计了一种实现田间西红柿收获机器人视觉系统的图像识别方法。通过对西红柿图像中目标与背景在不同彩色空间中颜色特征量的统计分析,确定图像分割的颜色特征量。对不同分割算法进行图像分割效果的比较,确定不同采摘期的最佳分割算法,并对分割后的图像进行目标提取及完善,获取颜色、形状特征均符合要求的采摘西红柿较为完整的轮廓信息。经实验测定,对实验样本西红柿目标提取,实验成功率达95%左右,平均用时0.21s。  相似文献   

17.
《计算机工程》2017,(10):216-221
现有的卷积神经网络方法难以对图像的每个像素进行语义识别,较难从像素层面分解出图像的不同类别。为此,提出一种端到端的全卷积深度网络,以实现高分辨航拍图像像素级的语义分割及识别。通过全卷积神经网络对图像强度信息和地理信息系统信息分别采用独立通道进行处理,在全卷积神经网络的最终层合并2个通道,并对每个像素进行全连接像素级标注,利用条件随机场作为后期处理方法平滑相似区域,同时保留图像中的边缘信息。实验结果表明,与传统视觉语义分类算法相比,该算法在航拍图像像素级分类上的准确率更高,识别效果更好。  相似文献   

18.
茶叶嫩芽识别和采摘点定位是实现精品茶制作过程中机器人选择性自主采摘的前提.提出了一种基于图像处理的自然场景下茶叶嫩芽视觉识别与采摘点定位方法.通过对茶丛图像特征分析,设计了基于超绿特征的茶叶嫩芽图像分割方法,提取茶丛图像的超绿特征,采用大津法(OTSU)进行阈值分割,并通过闭运算去除噪声,经色彩合并获得嫩芽分割图像.设...  相似文献   

19.
基于深度学习的方法在去雾领域已经取得了很大进展,但仍然存在去雾不彻底和颜色失真等问题.针对这些问题,本文提出一种基于内容特征和风格特征相融合的单幅图像去雾网络.所提网络包括特征提取、特征融合和图像复原三个子网络,其中特征提取网络包括内容特征提取模块和风格特征提取模块,分别用于学习图像内容和图像风格以实现去雾的同时可较好地保持原始图像的色彩特征.在特征融合子网络中,引入注意力机制对内容特征提取模块输出的特征图进行通道加权实现对图像主要特征的学习,并将加权后的内容特征图与风格特征图通过卷积操作相融合.最后,图像复原模块对融合后的特征图进行非线性映射得到去雾图像.与已有方法相比,所提网络对合成图像和真实图像均可取得理想的去雾结果,同时可有效避免去雾后的颜色失真问题.  相似文献   

20.
目的 在基于深度学习的红外与可见光图像融合方法中,多尺度分解是一种提取不同尺度特征的重要方式。针对传统多尺度分解方法里尺度设置粗糙的问题,提出了一种基于八度(octave)卷积的改进图像融合算法。方法 融合方法由4部分组成:编码器、特征增强、融合策略和解码器。首先,使用改进后的编码器获取源图像的多尺度上的低频、次低频和高频特征。这些特征会被从顶层到底层进行强化。其次,将这些特征按照对应的融合策略进行融合。最后,融合后的深度特征由本文设计的解码器重构为信息丰富的融合图像。结果 实验在TNO和RoadScene数据集上与9种图像融合算法进行比较。主观评价方面,所提算法可以充分保留源图像中的有效信息,融合结果也符合人的视觉感知;客观指标方面,在TNO数据集上所提算法在信息熵、标准差、视觉信息保真度、互信息和基于小波变换提取局部特征的特征互信息5个指标上均有最优表现,相较于9种对比方法中最优值分别提升了0.54%,4.14%,5.01%,0.55%,0.68%。在RoadScene数据集上所提算法在信息熵、标准差、视觉信息保真度和互信息4个指标上取得了最优值,相较9种对比方法的最优值分别提升了...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号