首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 328 毫秒
1.
顾梅花  刘杰  李立瑶  崔琳 《纺织学报》2022,43(11):163-171
针对小尺寸服装与遮挡服装图像分割准确率低的问题,提出一种基于改进多尺度特征学习策略与注意力机制的服装图像分割方法。以Mask R-CNN为基础框架,首先采用增强特征金字塔网络优化模型的特征学习过程,对多尺度服装特征进行统一监督,缩小不同层级之间的语义差距,引入残差特征增强模块减少高层特征损失,采用软感兴趣区域选择自适应地获取最优感兴趣区域特征;然后在分类预测分支引入通道注意力模块,在边界框回归与掩膜预测分支分别引入空间注意力模块,提取图像中需要重点关注的服装区域特征。结果表明,与其他方法相比,本文方法改善了小尺寸服装图像和遮挡服装图像分割中存在的漏检、漏分割现象,提取出的服装实例更精确,其平均精度均值比原模型提升了3.8%。  相似文献   

2.
传统catmy算法通过比较图像梯度值与人为给定阁值,进行图像边缘提取,无法自适应确定阀值、一些基于改进的最大类间差算法(Otsu算法),通过计算梯度直方图和类间方差极大值的,自动寻找出Canny算法需要的分割闽值实现对传统Canny算法的改进,对于文字图像边缘提取效果并不好。本文利用梯度直方图峰值搜索的方法设定Canny算法的上闽值,通过对图像分块计算,自适应处理亮度不均的文字图像。关键词:边缘提取;自适应闽值分割;Cmmy算子;峰值搜索  相似文献   

3.
朱琪 《电子游戏软件》2013,(24):130-131
该方法首先采用分水岭算法来得到彩色年轮图像的大致区域分布,并结合 canny 算法实现种子点的自动选取,自适应的改变生长条件,从而解决了区域断裂的问题。分割结果表明 , 该方法保持了原图像的完整形状特征并能获得清晰的边缘 , 为年轮参数提取奠定了良好的基础。  相似文献   

4.
针对苗族服饰图像中破损污渍、折叠痕迹、色彩差异大和噪声破坏等现象所导致的传统模糊C均值聚类(Fuzzy C-means, FCM)算法分割质量不佳问题,提出了基于空间信息鲁棒FCM算法,用于苗族服饰图像分割。通过均值滤波和中值滤波处理空间邻域信息,对应获得2种方法,并用一个加权参数调节模糊隶属度的稀疏性,旨在加强细节的提取和提高算法对噪声的鲁棒性。实验表明,对于被高斯噪声破坏的图像,基于均值滤波处理的改进算法,其划分系数提高约3.6%,划分熵降低约5.6%;对于被椒盐噪声破坏的图像,基于中值滤波处理的空间约束项的改进算法,划分系数提高约2.7%,划分熵降低约4.3%。该算法提高了对这类苗族服饰图像分割的质量,对于传统文化的传承具有非凡的意义。  相似文献   

5.
针对储粮害虫的图像识别需求,结合传统模糊C均值算法(FCM)在粮虫图像分割时运算开销过大、噪音敏感度偏高等不足,提出TL-FCM(Tower layered FCM)粮虫图像分割改进算法。该方法采取塔状层次构架来降低运算的时间复杂度,同时对目标图像的像素隶属度进行约束,为传统算法中的目标函数引入约束项,从而有效约束邻域信息。仿真结果能够证明所构建的优化算法处理时间较短,且能够有效保留粮虫图像分割区域细节,算法性能和效果均比较理想。  相似文献   

6.
以羊肋排为研究对象,提出了一种基于U型卷积神经网络的羊肋排图像分割算法。采集羊肋排样本图像,利用图像增广技术扩充图像数据,经归一化后,建立羊肋排图像数据集;建立羊肋排图像分割模型U-Net,以卷积和池化运算提取肋排特征,融合肋排的深层特征和浅层特征,经多次反卷积操作实现融合特征的精准定位,得到肋排区域的二值图像,从而实现端到端的图像语义分割;引入精度(PA)、均像素精度(MPA)、平均交并比(MIoU)3种图像语义分割评判标准判断网络的分割性能。试验结果表明:U-Net分割肋排图像PA、MPA、MIoU分别为92.38%,88.52%,84.26%。比较现有的3种经典图像语义分割方法 SegNet、FCN8s、FCN32s,U-Net平均交并比(MIoU)较上述3种方法分别高出6.47%,15.34%,25.86%,且处理单幅肋排图像的时间比次优的SegNet缩短48ms。针对劈半羊胴体图像数据集,U-Net的MIoU为75.57%。  相似文献   

7.
景军锋  孟泰  李鹏飞 《纺织学报》2012,33(6):97-100
 针对纺织品印花精度检测的关键技术问题,主要围绕纺织品印花图像的有效分割展开研究工作,提出了基于距离修正和隶属度修正的FCM算法。为了确保FCM算法的有效性和精确性,对其参数的选取和算法结构进行了深入的研究,结合参数的自适应初始化方法和FCM算法的修正方法,最终给出该算法对纺织品印花图像的分割效果图。实验结果表明,该算法对纺织品印花图像有良好的分割效果,并且对由光和织物纹理引起的干扰有一定的抑制作用。  相似文献   

8.
几种基于图像自适应阈值分割的织物疵点检测方法比较   总被引:1,自引:0,他引:1  
为了比较四种自适应阈值算法对目标和背景灰度值差异较大的织物疵点的检测效果,进而综合比较四种算法的优劣情况,本文首先对Otsu算法、改进的Otsu算法、局部阈值分割算法以及最大熵阈值法共四种图像自适应阈值算法的原理进行了介绍,然后分析了运用图像自适应阈值算法检测织物疵点的方法与步骤,在此基础上分别用四种自适应阈值算法对平纹和斜纹织物疵点图像进行了检测,并对检测结果进行了详细的分析和比较。实验结果证明文中所述四种自适应阈值算法在一定程度上都能用于织物疵点的检测,当不考虑算法执行时间时,检测效果为:局部阈值分割算法>改进的Otsu算法>Otsu算法>最大熵阈值法。当考虑算法执行时间时,综合检测效果为:局部阈值分割算法>Otsu算法>最大熵阈值法>改进的Otsu算法。  相似文献   

9.
李颀  胡家坤 《食品与机械》2020,(8):123-128,153
通过CCD相机动态采集苹果两个面的实时图像,提出了泛洪填充+自适应Ostu阈值分割算法提取苹果的轮廓,采用最小外接圆法对苹果上表面图像进行处理得到苹果果径,采用最小外接矩形法对苹果侧表面图像进行处理提取苹果果形特征;将图像进行RGB到HSV空间转换,提取苹果的着色度、果锈,以及疤痕特征,采用基于改进粒子群算法的SVM决策树的分类方法进行苹果的分级。结果表明,该方法对特级果、一级果、二级果和等外果的识别准确率分别达96%,94%,98%,98%,分级速率达4个/s,可以满足苹果在线分级的要求。  相似文献   

10.
针对带有重组织的织物图像特点,提出了一种根据纱线颜色进行图像分割的方法。首先将织物图像转化为Lab颜色模式,采用混合中值滤波算法滤除扫描噪声;其次通过设置色差容许值改变高斯权值的平滑滤波算法进行滤波,去除织物图像中的重组织阴影和同颜色纱线纹理,保留纱线颜色特征;然后提取织物图像的色差梯度,通过分水岭算法进行图像分割,获得区域标记图像;最后将颜色相近的分割区域进行合并,得到织物图像的分色索引图像。实验结果表明,提出的算法可以对重织物图像进行较为准确地分割。  相似文献   

11.
目的 使用改进多尺度Retinex(Multi-Scale Retinex,MSR)图像增强技术和支持向量机(Support Vector Machine,SVM)分类技术实现苹果表面缺陷检测。方法 对苹果实验图像进行MSR图像增强,消除光照不均匀和表面颜色复杂干扰。对图像增强结果图使用自适应gamma矫正提高光晕区域对比度,并使用基于局部灰度的多阈值比较分割消除光晕现象干扰,获得初步缺陷分割结果。在此基础上,提取苹果梗萼与疤痕的颜色特征,并引入SVM对梗萼和疤痕进行分类,并对梗萼进行剔除,仅保留疤痕作为最终检测结果。结果 将本研究的方法部署到嵌入式设备OpenMV4H7Plus中并经实验证明,梗萼识别准确率达到93.8%,疤痕检测准确率达到92.8%。结论 利用改进MSR图像增强技术和SVM分类技术可以在光照不均匀和颜色信息复杂的苹果表面实现疤痕的有效检测。  相似文献   

12.
针对运用图像方法进行纱线条干均匀度检测时,背景黑板、纱线毛羽以及图像噪声等对检测结果影响较大的问题,借鉴人的视觉感知机制,提出一种应用显著性算法检测纱线条干均匀度的方法。对采集到的纱线图像提取颜色和亮度特征,进行显著性分析,突出纱线条干区域,然后利用迭代阈值分割算法和区域滤波,得到准确清晰的纱线条干二值图像,基于此进行直径计算、均匀度分析和纱线疵点判定。通过边缘准确性评价可知,采用所提方法分割得到的纱线条干二值图像有着较高的分割精度。通过与Uster Classimat 5的均匀度检测结果进行比较,证明这种方法可得到准确的结果,与Used Classimat 5 的测量结果有着较好的一致性。  相似文献   

13.
Cheng P.  Wang W.  Fang Y. 《丝绸》2023,(3):97-104
With the penetration of artificial intelligence technology into various fields the combination of artificial intelligence and art design provides a broader prospect for the intelligent design of clothing. As an active topic of deep learning of artificial intelligence style transfer starts to be used in the fields of clothing pattern design and art painting. At present there are many technical shortcomings in using style transfer technology for clothing pattern design. When style transfer based on the convolutional neural network is applied to clothing pattern design the problems of monotonous color simple texture and inability to remove redundant backgrounds arise. Therefore this study explores an integration of Gram matrix and Canny edge detector to solve the problem of multi-style fusion and background segmentation in style transfer. In this study in order to realize multi-style transfer we first input multiple style images into the VGG-19 model so that the layers designated as style output can extract the features of each style image and output them separately. We calculate the Gram matrix of each image separately and weight all the obtained Gram matrices to form a new matrix. Therefore the co-occurrence and correlation of each channel in the new matrix can represent the fusion style. In order to deal with the redundant backgrounds generated in the style transfer process and the non-rendered areas due to the features of swimsuit styles we adopt the Canny edge detector algorithm and the OpenCV image processing library to perform operations such as rendering segmentation of images using the HSV interval differences of different rendered areas of swimsuit and finally obtain the swimsuit pattern design drawings. Compared with other convolutional neural networks whose style transfer can only extract the style of one image we optimize the structure of the Gram matrix and can extract the style of multiple images to transfer at the same time. In the processing of the image generated by style transfer by analyzing the structure and design features of swimsuit a clothing image segmentation model applicable to swimsuits is established. In order to verify the effectiveness of this study in the field of clothing pattern design we compare the effect drawings generated in this study with those generated by the style transfer method of other convolutional neural networks using the three metrics of questionnaire score PSNR and SSIM and the results show that the method of this study obtains higher evaluation in all the three metrics. This study by combining the painting art style with swimsuit pattern design is able to design a large number of swimsuit patterns with multi-style fusion features at a very low cost and has great application prospects. There is still room for improvement in the accuracy of swimsuit image segmentation in this study and further research will be conducted in this area. © 2023 China Silk Association. All rights reserved.  相似文献   

14.
为提升服饰纹样色彩配色效能,利用自适应颜色聚类及自动配色机制,实现基于意象场景的服饰纹样自动配色。以京剧脸谱为范例,搜集了三类角色共计150幅脸谱图像作为源图,采用分割、降噪等操作获取脸谱主体内容;利用二分K-均值聚类算法,对单一样本进行逐一自适应色彩提取,在此基础上进行二次聚类获得各角色脸谱提取色色值、占比及共现比率等特征参数;最后设计融合颜色聚类数、共现比率及目标区域特征要素的动态配色机制,开发色彩解析和纹样自动配色软件。实验结果表明,配色控制参数、源图类型、纹样形态等因素影响选色顺序及最终配色效果,实现基于意象场景的纹样色彩自动迁移,为当代服饰纹样色彩设计提供决策参考。  相似文献   

15.
 采用计算机图像分割技术对纤维混色产品的高分辨率扫描图像进行处理,提出了根据其所含纤维色彩特点进行图像分割的方法。将彩色图像转化为HSV色彩空间,对图像的灰度区域针和彩色区域分别以V分量和H分量进行分割,分割过程采用模糊C聚类分析(FCM)的方法进行。实验结果表明,此方法可以图像分割成有效的几个类别,并保持原有图像的色彩、纹理信息。该方法可以用于计算机辅助拼色纤维配色,与传统的通过光学模型预测方法相比,此方法更为直接,有效。  相似文献   

16.
针对传统核模糊C均值聚类(Kernel Fuzzy C-Means,KFCM)畜肉图像分割方法对噪声适应能力不强的问题,提出基于广义核函数或混合核函数的模糊局部信息C均值聚类(Fuzzy Local Information C-Means,FLICM)畜肉图像分割方法(KFLICM_UG方法和KFLICM_MG方法)。首先利用广义核函数或混合核函数可以有效兼顾学习能力和泛化能力的优势,将图像的每一个像素映射到高维的特征空间,扩大像素有用特征的类间差异,使像素在高维特征空间中拥有更优的线性可聚性;然后结合像素的局部空间和灰度信息,确定其模糊隶属度,在高维的特征空间中依据图像特征对像素进行模糊局部信息C均值聚类,最终实现畜肉图像的分割。大量的实验结果表明,相比现有的模糊C均值(Fuzzy C-Means,FCM)分割方法、KFCM分割方法和FLICM分割方法,本文提出的KFLICM_UG方法和KFLICM_MG方法可以获得更好的分割效果,更低的分割错误率,且具有更强的噪声适应能力和鲁棒性。  相似文献   

17.
In textile and garment industries, misarranged warp yarns of yarn-dyed fabrics disorganize the layout of fabrics and lead to poor product quality. This series of studies aims to develop a computer vision-based system for automatic detection of misarranged color warp yarns in terms of high efficiency and good accuracy. Four main parts are included in this series of studies: warp yarn segmentation, fabric image stitching, warp regional segmentation, and yarn layout proofing. This paper proposes a continuous segmentation method of warp yarns to detect the misarranged color warp yarns for yarn-dyed fabrics automatically, which is the foundation of the developed computer vision-based system. The proposed framework consists of two main components: warp yarn segmentation and fabric image stitching. Firstly, the sequence images of a fabric stripe are captured using a designed offline image acquisition platform. Secondly, the warp yarns in the sequence images are segmented by a sub-image projection-based method successively. Thirdly, the sequence images are stitched by a yarn-template matching method based on their warp segmentation results. Finally, the continuous segmentation result of warp yarns is saved for the further processing of warp regional segmentation and color warp layout proofing. The proposed method has been evaluated on 720 fabric images of five fabric examples with plain and 2/2 twill, and experimental results show that the proposed method can realize the continuous segmentation of warp yarns in yarn-dyed fabrics with the yarn segmentation accuracy of 97.43% and image stitching accuracy of 99.53%.  相似文献   

18.
机采棉中的杂质繁杂,而杂质类型及含量对后期棉花加工工艺的影响很大。为此,提出一种应用区域颜色分割方法以检测棉花中的杂质。在图像分割中,先对滤波后的机采棉图像进行彩色梯度运算,通过扩展极小变换运算获得标记图像,在修改后的梯度图像上运用分水岭算法获得初始分割图像,然后对初始分割图像进行区域合并。区域合并过程中要综合考虑空间邻接性、颜色信息和区域面积3个因素。颜色信息主要采用饱和度、亮度、区域颜色向量模及颜色相似度4 个特征量。用层次递进的合并方法,迭代过程更新信息特征。最后通过支持向量机算法提取颜色、纹理、形状特征对杂质区域进行识别。结果表明,所提方法对机采棉中天然杂质的平均识别率为94%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号