首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
风格迁移过程中风格元素均匀分布在整个图像中会使风格化图像细节模糊,现有的迁移方法主要关注迁移风格的多样性,忽略了风格化图像的内容结构和细节信息.因此,该文提出结构细化的神经风格迁移方法,通过增加边缘检测网络对内容图像的轮廓边缘进行提取实现风格化图像内容结构的细化,凸显内容图像中的主要目标;通过对转换网络中的常规卷积层的较大卷积核进行替换,在具有相同的感受野的条件下,使网络模型参数更少,提升了迁移速度;通过对转换网络中的常规卷积层添加自适应归一化层,利用自适应归一化在特征通道中检测特定样式笔触产生较高的非线性同时保留内容图像的空间结构特性来细化生成图像的结构.该方法能够细化风格化图像的整体结构,使得风格化图像连贯性更好,解决了风格纹理均匀分布使得风格化图像细节模糊的问题,提高了图像风格迁移的质量.  相似文献   

2.
针对图像风格迁移时出现前后景边界模糊造成风格化图像主要目标模糊的问题,提出了目标边缘清晰化的图像风格迁移算法.通过将用于提取内容图像轮廓的深度抠图神经网络与风格迁移网络合并,形成透明遮罩约束风格迁移过程,凸显风格化图像中主要目标的轮廓;通过对迁移网络中最大池化层进行替换,保留图像的背景信息,细化风格化图像的整体结构;通...  相似文献   

3.
图像动漫化技术的发展对我国动漫产业影响巨大.目前基于深度学习的动漫风格迁移研究是一项热门的研究方向,相关算法层出不穷.文章对动漫风格迁移领域现有的主流方法和代表性工作进行了归纳和讨论,分析了该领域所使用的主要深度神经网络模型,并按照动漫风格迁移方法所解决的不同实际问题,将其归纳为风景动漫迁移、人像动漫迁移和视频帧动漫迁...  相似文献   

4.
基于Johoson等的图像风格转换网络模型,在保证网络性能的前提下,在原有的网络结构上,通过运用更高效的网络计算方法对原有残差网络进行优化.实验结果表明,改进后的方法在几乎不降低图像质量的前提下,一定程度上克服了图像风格迁移模型存储量大、计算代价高、计算资源消耗大、难以移植到移动端的问题.  相似文献   

5.
风格迁移是通过使用图像处理方法将图像的内容与其他图像的色彩、纹理、轮廓等信息结合在一起的技术。它在保留图像原有内容的同时,还加入了其他艺术风格,最常使用的风格迁移技术就是深度学习技术。本文提出了一种基于HSV颜色模型的图像风格迁移算法,该算法是对经典的深度学习图像风格迁移算法进行改进。本文提出的算法利用HSV颜色模型在对颜色种类的表示的直观性和方便性的优势,在损失函数中加入内容图像与迁移图像的HSV颜色模型中的H因素的L2距离,并通过实验验证,本算法能够达到在风格迁移的基础上,保留原始内容图像颜色色调的目的。  相似文献   

6.
针对深度学习模型在实际应用场景中预测性能下降的问题,提出了一种基于风格迁移的数据增强方法。首先,使用少量原始数据和少量实际应用场景下的未标注数据学习风格迁移模型。然后,对大量已标注的原始数据进行风格迁移,得到与实际数据风格相近的大量有标签数据。最后,基于此数据训练面向实际应用场景的深度学习模型。实验结果表明,所提出的方法能有效地提升模型在实际应用场景数据上的预测性能,且效果优于传统数据增强方法。  相似文献   

7.
8.
9.
10.
11.
谢筱华  罗立民 《电子学报》1993,21(10):14-21
(1)本文引入仿射变换,提出了一种用矩算子以民分辨率图象直接进行边界检测的方法,利用同分辨率图象正方形窗口的模板行矩的计算,推导出了相应用的边界参数公式。(2)本文提出一种隐线笥插值矩计算方法,得到一组与正方形窗口对应的正方形模板,避免了费时的预插值过程,(3)对本文提出的方法进行了实验验证,并给出了实验结果。  相似文献   

12.
    
This work proposes an efficient example-based photorealistic style transfer algorithm for video. Given a source unprocessed video and a reference image color graded by an artist, we describe an automatic algorithm to transfer the visual style of the reference onto the source footage. Our approach builds upon the color transfer methods based on the statistical properties of images. These methods are fast and of low-complexity, therefore suitable for real-time implementations. Our contribution is to adapt those methods to be used for unprocessed video from cinema cameras, and optionally to incorporate regions of interest previously selected by the user, affecting the final color transfer. The resulting videos are free from artifacts and provide an excellent approximation to the intended look, bringing savings in pre-production, shooting and post-production time. Results are free of spatio-temporal artifacts and the method outperforms diverse state-of-the-art methods according to observer preference experiments.  相似文献   

13.
    
Deep network has been proven efficient and robust to capture object features in some conditions.It still remains in the stage of classifying or detecting objects.In the field of visual tracking,deep network has not been applied widely.One of the reasons is that its time consuming made the strong method could not meet the speed need of visual tracking.A novel simple tracker is proposed to complete tracking task.A simple six-layer feed-forward backpropagation neural network is applied to capture object features.Nevertheless,this representation is not robust enough when illumination changes or drastic scale changes in dynamic condition.To improve the performance and not to increase much time spent,image perceptual hashing method is employed,which extracts low frequency information of object as its fingerprint to recognize the object from its structure.64-bit characters are calculated by it,and they are utilized to be the bias terms of the neutral network.This leads more significant improvement for performance of extracting sufficient object features.Then we take particle filter to complete the tracking process with the proposed representation.The experimental results demonstrate that the proposed algorithm is efficient and robust compared with the state-of-the-art tracking methods.  相似文献   

14.
马永航  林志诚 《移动信息》2024,46(1):204-206
视频行为识别是计算机视觉领域的一个重要研究方向。文中提出了一种基于ResNet-50结构的轻量化视频行为识别方法,以处理视频中丰富而复杂的时空特征。通过增加模型的卷积层深度,能更准确地提取特征,并提高视频行为识别的准确率。研究结果表明,与传统的卷积神经网络相比,该方法具有更高的准确率。  相似文献   

15.
16.
  总被引:1,自引:0,他引:1  
A novel neuro-fuzzy (NF) operator for edge detection in digital images corrupted by impulse noise is presented. The proposed operator is constructed by combining a desired number of NF subdetectors with a postprocessor. Each NF subdetector in the structure evaluates a different pixel neighborhood relation. Hence, the number of NF subdetectors in the structure may be varied to obtain the desired edge detection performance. Internal parameters of the NF subdetectors are adaptively optimized by training by using simple artificial training images. The performance of the proposed edge detector is evaluated on different test images and compared with popular edge detectors from the literature. Simulation results indicate that the proposed NF operator outperforms competing edge detectors and offers superior performance in edge detection in digital images corrupted by impulse noise.  相似文献   

17.
基于IMAQ的尺寸、形状检测方法研究   总被引:1,自引:0,他引:1  
提出了一种基于IMAQ视觉检测技术的零件尺寸非接触检测方法。首先对CCD摄像装置采集的图像进行灰度变换、二值化和颗粒去除,二值图像开运算,边界提取等预处理,最终得到清晰的图象轮廓。同时通过标准样块的标定获得标定系数,确定内部标尺。最后利用软件寻找测试对象的检测区域并得到试件尺寸。  相似文献   

18.
PCNN模型的改进及其在医学图像处理中的应用   总被引:3,自引:0,他引:3       下载免费PDF全文
该文结合脉冲耦合神经网络(PCNN)和非线性各向异性扩散(NAD)模型,提出了改进的ADPCNN模型,并对新模型进行了理论分析。新模型对NAD模型的扩散次数问题和PCNN模型对像素的修改策略问题提出了解决方法,在医学眼底图像处理中取得了较好的效果。  相似文献   

19.
基于光学成像的激光气泡检测已被广泛应用于工业领域,如气密性检测等.然而,检测图像的降质严重影响了测量的准确性.为了提高气泡检测的图像质量,提出一种估计动态调制传递函数进行边缘正则化的半盲图像复原法,采用客观图像的质量指标来对半盲解卷积算法进行约束,并将图像复原法与二值形态滤波比较.实验结果证明了该方法的有效性,由此可以得出该方法能有效提高激光气泡检测的成像质量,保留气泡检测图像的边缘细节,以达到更高的检测精度.  相似文献   

20.
针对低照度图像增强模型中的亮度提升、噪声抑制以及保持纹理颜色一致性等难点问题,该文提出一种基于移位窗口自注意力机制的低照度图像增强方法。该文以U型结构为基本框架,以移位窗口多头自注意力模型为基础,构建了由编码器、解码器以及跳跃连接组成的图像增强网络。该网络将自注意力机制的特征提取优势应用到低照度图像增强领域,建立图像特征信息之间的长期依赖关系,能够有效获取全局特征。将所提方法与当前流行的算法进行定量和定性对比试验,主观感受上,该文方法显著提升了图像亮度,抑制图像噪声效果明显并较好地保持了纹理细节和颜色信息;在峰值信噪比(PSNR)、结构相似性(SSIM)和图像感知相似度(LPIPS)等客观指标方面,该方法较其他方法的最优值分别提高了0.35 dB, 0.041和0.031。实验结果表明,该文所提方法能够有效提升低照度图像的主观感受质量和客观评价指标,具有一定的应用价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号