首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
介绍了一种基于区域的彩色图像分割方法。该方法首先提取图像像素点的颜色、纹理等特征,然后采用Gaussian混合模型,通过EM算法学习,根据提出的选择最佳高斯混合模型参数K的准则,确定K,利用图像像素点特征的相似度在特征空间中粗略的将像素点划分为不同的组,最后在各个组内依据其位置信息对图像再进一步划分,得到图像的区域分割。实验结果表明,该分割方法具有较好的分割性能。  相似文献   

2.
为解决细粒度图像分类中不相关背景信息干扰以及子类别差异特征难以提取等问题,提出了一种结合前景特征增强和区域掩码自注意力的细粒度图像分类方法。首先,利用ResNet50提取输入图片的全局特征;然后通过前景特征增强网络定位前景目标在输入图片中的位置,在消除背景信息干扰的同时对前景目标进行特征增强,有效突出前景物体;最后,将特征增强的前景目标通过区域掩码自注意力网络学习丰富、多样化且区别于其他子类的特征信息。在训练模型的整个过程,建立多分支损失函数约束特征学习。实验表明,该模型在细粒度图像数据集CUB-200-2011、Stanford Cars和FGVC-Aircraft的准确率分别达到了88.0%、95.3%和93.6%,优于其他主流方法。  相似文献   

3.
针对训练数据和测试数据来源不同,特征分布差异较大,以及目标大小不一时,深度目标检测模型性能下降明显的问题,提出基于跳跃特征金字塔的域适应遥感图像目标检测模型。首先,在目标检测网络中增加域适应部分,将训练数据作为源域,测试数据作为目标域,通过对抗训练的方式,对具有不同特征分布的两个域,关注其差异,同时提取源域和目标域数据的特征,减小遥感图像由光照、角度等不同造成的源域和目标域图像在图像级的域偏移对目标检测的影响,提升检测模型的推广性能。其次,提出跳跃特征金字塔结构,通过特征上采样,以及同层连接、相隔层间的跳跃连接与特征融合,来增强特征图的细节信息和语义信息,以提高模型对不同尺度目标的检测精度。最后,使用区域推荐网络在多个不同分辨率的特征图上提取候选区域,检测不同尺度的目标。所提模型在NWPUVHR-10数据集上检测精度达到了98.2%、误检率为5.4%、漏检率为8.3%;在RSOD-DATA的低亮度数据集上检测精度达到了62%,误检率、漏检率为18.2%和18.5%。与其他模型相比,所提模型的性能有明显提升,具有更好的推广性。  相似文献   

4.
结合区域协方差分析的图像显著性检测   总被引:1,自引:1,他引:0       下载免费PDF全文
目的 图像显著性检测的目的是为了获得高质量的能够反映图像不同区域显著性程度的显著图,利用图像显著图可以快速有效地处理图像中的视觉显著区域。图像的区域协方差分析将图像块的多维特征信息表述为一个协方差矩阵,并用协方差距离来度量两个图像块特征信息的差异大小。结合区域协方差分析,提出一种新的图像显著性检测方法。方法 该方法首先将输入的图像进行超像素分割预处理;然后基于像素块的区域协方差距离计算像素块的显著度;最后对像素块进行上采样用以计算图像像素点的显著度。结果 利用本文显著性检测方法对THUS10000数据集上随机选取的200幅图像进行了显著性检测并与4种不同方法进行了对比,本文方法估计得到的显著性检测结果更接近人工标定效果,尤其是对具有复杂背景的图像以及前背景颜色接近的图像均能达到较好的检测效果。结论 本文方法将图像像素点信息和像素块信息相结合,避免了单个噪声像素点引起图像显著性检测的不准确性,提高了检测精确度;同时,利用协方差矩阵来表示图像特征信息,避免了特征点的数量、顺序、光照等对显著性检测的影响。该方法可以很好地应用到显著目标提取和图像分割应用中。  相似文献   

5.
针对传统小波域马尔可夫随机场图像分割算法的纹理图像分割能力的不足,提出一种将非下采样Brushlet变换和马尔可夫随机场相结合的纹理图像分割方法。用非下采样Brushlet变换作为图像分割的特征场,有效地提取纹理图像中的高维奇异信息;利用高斯马尔可夫模型提取特征场的参数,考察图像中的光谱信息以及像素点的空间相关性对分割结果的影响。实验表明,本文算法可以有效地实现纹理图像分割,在检测纹理方向信息和区域一致性上较传统算法有较大的提高。  相似文献   

6.
针对现有的医学影像主要以灰度图像的形式呈现,特征单一,不能充分表达图像信息等问题,提出多特征融合的医学影像颜色感知算法.首先通过提取多个方向的梯度特征以及融合原始亮度特征保留图像更多信息,在相似区域选择代表点,建立像素点的层次结构减少计算量;然后对顶层像素点利用流形学习和自顶而下的插值方法计算所有像素点的低维坐标;最后将低维坐标投影到颜色空间得到相应的彩色医学图像.在正常MRI影像、正常的CT影像以及带有疾病的MRI影像上进行实验的结果表明,文中算法对医学灰度图像进行着色后具有丰富的色彩信息;相比传统的颜色迁移算法,该算法具有更高的清晰度和目标背景对比度指标.  相似文献   

7.
本文提出一种基于无监督域自适应的行人重识别方法.给定有标签的源域训练集和无标签的目标域训练集,探索如何提升行人重识别模型在目标域测试集上的泛化能力.以此为目的,在模型的训练过程中,将源域和目标域训练集同时输入到模型中进行训练,提取全局特征的同时,提取局部特征进行行人图像描述以学到更加细粒度的特征.提出将长短时记忆网络(...  相似文献   

8.
针对RGB图像的实例分割任务在图像目标物体纹理相近但类别不同的区域可能出现分割错误的问题,引入Depth信息,结合RGB-D图像的三维几何结构特点,提出一种以双金字塔特征融合网络为框架的RGB-D实例分割方法.所提出的方法通过构建两种不同复杂度的金字塔深度卷积神经网络分别提取不同梯度分辨率大小的RGB特征及Depth特征,将对应分辨率大小的两种特征相加输入区域候选网络,以此改变输入区域候选网络层的共享特征,共享特征再经过分类、回归与掩码网络分支输出定位与分类结果,从而实现RGB-D图像的实例分割.实验结果表明,所提出的双金字塔特征融合网络模型能够完成RGB-D图像的实例分割任务,有效学习到深度图像与彩色图像之间的互补信息,与不包含Depth信息的Mask R-CNN相比,平均精度提高7.4%.  相似文献   

9.
针对图像分割计算量大、噪声因素影响等问题,提出改进U-Net网络的多视觉特征图像分割方法。对同一窗口中的灰度值排序,计算像素点极大值与极小值,根据角度与像素点的关系,检测噪声点,将被污染的噪声点放入集合中,使用其它像素点替换该点,完成滤波;分别从颜色、纹理与形状三个方面提取图像的多视觉特征,为图像分割提供参考依据;利用编码器、解码器和跳跃连接层建立U-Net网络,将提取的特征作为网络输入,新增深度残差模块,经过残差学习,实现特征映射;引入注意力模块,减少特征维度,确定张量权重,利用池化层拼接特征维度,输出最终分割特征张量。实验结果表明,所提方法对于分割目标的敏感度较高,不容易出现过分割与欠分割现象。  相似文献   

10.
从图像中获取目标物体的6D位姿信息在机器人操作和虚拟现实等领域有着广泛的应用,然而,基于深度学习的位姿估计方法在训练模型时通常需要大量的训练数据集来提高模型的泛化能力,一般的数据采集方法存在收集成本高同时缺乏3D空间位置信息等问题.鉴于此,提出一种低质量渲染图像的目标物体6D姿态估计网络框架.该网络中,特征提取部分以单张RGB图像作为输入,用残差网络提取输入图像特征;位姿估计部分的目标物体分类流用于预测目标物体的类别,姿态回归流在3D空间中回归目标物体的旋转角度和平移矢量.另外,采用域随机化方法以低收集成本方式构建大规模低质量渲染、带有物体3D空间位置信息的图像数据集Pose6DDR.在所建立的Pose6DDR数据集和LineMod公共数据集上的测试结果表明了所提出位姿估计方法的优越性以及大规模数据集域随机化生成数据方法的有效性.  相似文献   

11.
为从源域和目标域的图像中提取域不变细节特征,提高目标域分类器的分类精度,提出基于混合池化及样本筛选机制的域不变细节特征提取方法.通过优化卷积神经网络中的池化层,提取图像中的细节特征,利用样本筛选机制挑选源域和目标域中细节信息较明显的样本图像,将两域中属于同一类别的样本组成样本对,用于提取域不变细节特征表示.结合实例,对模型和算法进行了实验分析,验证了模型的可行性和算法的有效性.  相似文献   

12.
动态图像序列中的运动目标检测   总被引:7,自引:4,他引:7  
根据动态图像序列中背景因成像过程中各种因素而产生变化所存在的复杂性,提出了自适应的前景目标检测方法。首先,建立图像每一像素点的高斯分布模型,并根据序列中的当前帧及历史帧信息自适应地调整模型的参数。然后,结合图像帧间的差分信息以及灰度分布的先验概率等因素将图像从空间域映射至统计域。最后,在统计域中对前景目标进行鲁棒分割。实验的结果反映了该方法的有效性。  相似文献   

13.
针对现有的图像特征分类方法收敛性差,分类无法满足日益增加的网络需求的现状,本文提出了一种基于深度强化学习的图像特征分类方法。通过对目标图像特征区域进行复域Contourlet分解,过滤处理分解结果,从而可以将目标图像子带系数矩阵提取出来,求取系数矩阵的相关特征。采取深度学习网络,使所选图像的特征向量直接经过已训练的层状网络深度模型,完成图像特征分类。实验结果表明,所提方法的误识率比现有方法明显降低,收敛速度明显提升。改进方法比传统方法更具优势,能够满足图像特征分类智能化处理的需要。  相似文献   

14.
论述了一种实时的前景一背景分割运动目标检测方法.用中值法获得背景模型;为避免规范化色彩的不确定性,背景图像像素点的亮度被比例缩放为当前帧对应像素点的亮度,在此基础上求出色度偏差,并基于当前帧和背景帧的颜色偏差和亮度偏差来检测目标;最后用数学形态学滤波及连通分量分析的方法进行去噪、区域连通等后处理.方法建立了科学的亮度与颜色的关系模型,充分利用了图像的灰度信息和色彩信息.实验表明,方法具有很好的检测效果.  相似文献   

15.
提出了一种从输入图像中提取一致性特征并将该特征融入视觉注意模型中的方法,它以Itti提出的视觉注意模型为基础,首先采用线性离散高斯滤波器对输入图像进行平滑和降采样,得到不同分辨率的子图像,建立输入图像的高斯金字塔结构.然后利用梯度结构张量计算各子图像的一致性并通过中央周边差操作得到一致性特征图,最后利用层间求和操作求得输入图像的一致性显著图引导注意.实验表明,在视觉注意模型的初级视觉特征提取阶段添加图像的一致性特征,能检测出Itti模型不能检测的一致性特征显著的感兴趣区域,而且能优先检测出具有特殊方向的目标.  相似文献   

16.
提出了一种新的图像特征表示方法,首先提取图像的底层颜色信息获取颜色特征值 ,通过对图像中物体的边缘检测计算像素点的边缘方向角度值,并对颜色特征值和边缘方向 角度值进行量化。然后根据相邻像素点之间量化结果的数值分析,为每个像素点建立8维特 征向量。再以中心像素点与相邻像素点间不同的位置关系为基础,为每种位置关系赋予不同 的权重,根据像素点的特征向量计算出图像中每一个像素点的特征值。最后统计图像中具有 相同特征值的像素点个数,形成特征直方图,以此作为图像检索的依据。实验表明本文方法 能够有效描述图像的颜色分布和图像中物体的空间结构,更加细致地记录图像信息,进一步 增强图像之间的区分能力。与其他方法相比,本文方法检索效果更好。  相似文献   

17.
针对核相关滤波目标跟踪算法中对局部上下文区域图像提取的HOG特征图在复杂环境下不能保证目标跟踪的精度问题,提出了一种核相关滤波与孪生网络相结合的目标跟踪算法.首先在首帧输入图像中提取HOG特征图并建立相关滤波器模板,同时提取经过孪生网络的目标区域图像特征图;然后若后续帧输入图像帧数不为5的倍数则提取仿射变换HOG特征图,否则提取经过孪生网络的搜索区域图像特征图;最后根据遮挡处理的结果自适应获取目标位置并更新模型和最终相关滤波器模板.仿真实验结果表明本文算法在保证目标跟踪精度的前提下具有满足实时跟踪要求的跟踪速率.  相似文献   

18.
为提高视频清晰度,引进双通道卷积神经网络算法,设计了一种针对视频处理过程的超分辨率增强方法。将视频录入计算机,建立视频信息与输入特征之间的级联关系,提取视频处理中的图像边缘纹理信息;引进双通道卷积神经网络算法,使用3×3的滤波处理器,提取视频特征信息,将提取的信息映射到双通道3×3区域中,匹配视频的矢量信息;引进Pair-wise模型将输入的低分辨率图像作为模型的分支,通过训练分支得到一个针对处理视频特征的字典,并据此生成高分辨率图像块。实验结果证明,设计方法可以在提高视频清晰度的同时,提高视频峰值信噪比,达到优化视频处理效果的目的。  相似文献   

19.
唐榕  李骞  唐绍恩 《计算机工程》2023,49(2):314-320
能见度对人类生产生活、交通运输安全等具有重要影响,是地面自动气象观测的重要内容之一,但由于受影响因素较多,目前能见度检测仍缺乏统一的标准和检定规程。现有基于图像的能见度检测方法大多从整幅图像或局部区域中提取视觉特征估计能见度,未考虑不同景深目标物对应子图像的质量衰减程度不同,导致检测结果精确度和稳定性不高。提出一种新的能见度检测方法,使用预训练的神经图像评估,从不同景深目标物对应的子图像中提取视觉特征,并将提取的特征和能见度真值输入到全连接网络,以训练子图像的能见度映射模型。根据子图像与全局图像间的关系,动态建立各目标在能见度整体估计过程中的权重回归模型,按照权重融合各目标物能见度估计值,得到整幅图像的能见度检测值。实验结果表明,该方法能有效提升回归模型的预测精度,其在不同能见度区间的检测正确率均超过85%。  相似文献   

20.
基于帧间差分的自适应运动目标检测方法*   总被引:6,自引:1,他引:5  
本文提出了一种基于帧间差分的自适应运动目标检测算法。算法利用直方图统计各像素点处最大概率灰度的方法提取出连续视频的背景图像;相邻帧利用帧差法得到运动区域图像;利用运动区域图像与背景图像差分的方法提取出运动目标。实验结果表明,该算法能在多个不确定性因素的序列视频中较好的提取背景图像,能及时响应实际场景变化,提高运动目标检测的质量。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号