首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
针对虚拟到真实驾驶场景翻译中成对的数据样本缺乏以及前后帧不一致等问题,提出一种基于生成对抗网络的视频翻译模型。为解决数据样本缺乏问题,模型采取“双网络”架构,将语义分割场景作为中间过渡分别构建前、后端网络。在前端网络中,采用卷积和反卷积框架,并利用光流网络提取前后帧的动态信息,实现从虚拟场景到语义分割场景的连续的视频翻译;在后端网络中,采用条件生成对抗网络框架,设计生成器、图像判别器和视频判别器,并结合光流网络,实现从语义分割场景到真实场景的连续的视频翻译。实验利用从自动驾驶模拟器采集的数据与公开数据集进行训练和测试,在多种驾驶场景中能够实现虚拟到真实场景的翻译,翻译效果明显好于对比算法。结果表明,所提模型能够有效解决前后帧不连续和动态目标模糊的问题,使翻译的视频更为流畅,并且能适应多种复杂的驾驶场景。  相似文献   

2.
郑博元 《控制工程》2023,(2):376-384
生成对抗网络是近年来解决视频异常检测的一类新方法。传统对抗网络对异常样本预测的泛化能力过强,进而导致预测性能不稳定。针对这一问题,提出一种基于记忆对抗网络的监控视频异常检测方法。首先,将记忆模块引入基于U-Net的预测网络与判别网络的对抗学习框架中,构建记忆对抗网络,以提升模型对正常视频帧的预测能力;其次,为记忆对抗网络设计了基于特征紧致度与分离度的新损失函数,提升了训练过程收敛的可靠性;此外,提出了基于记忆损失的异常性评估方案,以提升异常检测的准确性。通过对未来帧与预测帧的PSNR值和视频帧特征与记忆特征间距离的融合,进一步提升了模型的异常检测效果。消融实验验证了各改进部分的有效性;同其他算法相比,所提方法表现出良好的竞争力。  相似文献   

3.
视频生成是计算机视觉和多媒体领域一个重要而又具有挑战性的任务.现有的基于对抗生成网络的视频生成方法通常缺乏一种有效可控的连贯视频生成方式.提出一种新的多模态条件式视频生成模型.该模型使用图片和文本作为输入,通过文本特征编码网络和运动特征解码网络得到视频的运动信息,并结合输入图片生成连贯的运动视频序列.此外,该方法通过对输入图片进行仿射变换来预测视频帧,使得生成模型更加可控、生成结果更加鲁棒.在SBMG(single-digit bouncing MNIST gifs),TBMG(two-digit bouncing MNIST gifs)和KTH(kungliga tekniska hgskolan human actions)数据集上的实验结果表明:相较于现有的视频生成方法,生成结果在目标清晰度和视频连贯性方面都具有更好的效果.另外定性评估和定量评估(SSIM(structural similarity index)与PSNR(peak signal to noise ratio)指标)表明提出的多模态视频帧生成网络在视频生成中起到了关键作用.  相似文献   

4.
目的 视频异常行为检测是当前智能监控技术的研究热点之一,在社会安防领域具有重要应用。如何通过有效地对视频空间维度信息和时间维度信息建模来提高异常检测的精度仍是目前研究的难点。由于结构优势,生成对抗网络目前广泛应用于视频异常检测任务。针对传统生成对抗网络时空特征利用率低和检测效果差等问题,本文提出一种融合门控自注意力机制的生成对抗网络进行视频异常行为检测。方法 在生成对抗网络的生成网络U-net部分引入门控自注意力机制,逐层对采样过程中的特征图进行权重分配,融合U-net网络和门控自注意力机制的性能优势,抑制输入视频帧中与异常检测任务不相关背景区域的特征表达,突出任务中不同目标对象的相关特征表达,更有效地针对时空维度信息进行建模。采用LiteFlownet网络对视频流中的运动信息进行提取,以保证视频序列之间的连续性。同时,加入强度损失函数、梯度损失函数和运动损失函数加强模型检测的稳定性,以实现对视频异常行为的检测。结果 在CUHK(Chinese University of Hong Kong) Avenue、UCSD(University of California, San Dieg...  相似文献   

5.
朱海琦  李宏  李定文 《计算机工程》2021,47(8):271-276,283
将卷积神经网络引入生成对抗网络可提高所生成图像的质量,但网络的感受野较小且难以学习各个特征通道之间的重要关系。在SinGAN网络的基础上,提出一种能从单幅图像中学习的生成对抗网络模型。在SinGAN网络的生成器和鉴别器中引入Inception V2模块以增加网络宽度扩大感受野,采用多个卷积核提取图像特征并进行特征融合,利用SENet模块学习各个通道的重要程度以获取更好的图像表征。实验结果表明,与Bicubic和SinGAN模型相比,该模型峰值信噪比和结构相似性值更高,可有效提升图像生成质量。  相似文献   

6.
针对传统视频摘要方法往往没有考虑时序信息以及提取的视频特征过于复杂、易出现过拟合现象的问题,提出一种基于改进的双向长短期记忆(BiLSTM)网络的视频摘要生成模型.首先,通过卷积神经网络(CNN)提取视频帧的深度特征,而且为了使生成的视频摘要更具多样性,采用BiLSTM网络将深度特征识别任务转换为视频帧的时序特征标注任...  相似文献   

7.
在传统文本-图像对抗模型的实现中,判别器中的卷积网络用于提取图像特征,但是卷积网络无法考虑到底层对象之间的空间关系,导致生成图像的质量较差,而胶囊网络是一种有效的解决方法。基于胶囊网络的方法对传统的文本条件式生成对抗网络模型进行了改进,将判别器中卷积网络换为胶囊网络,增强其对图像的鲁棒性。在Oxford-102和CUB数据集上的实验结果表明新模型可以有效提高生成质量,生成花卉图像的FID的数值降低了14.49%,生成鸟类的图像的FID的数值降低了9.64%。在Oxford-102和CUB两个数据集上生成图像的Inception Score分别提高了22.60%和26.28%,说明改进后模型生成的图片特征更丰富、更有意义。  相似文献   

8.
宋建辉  张甲  刘砚菊  于洋 《控制与决策》2021,36(5):1110-1118
为解决被跟踪目标在快速剧烈运动时,因运动模糊和低分辨率使模型发生漂移,导致跟踪器跟踪效果变差甚至跟踪失败的问题,对全卷积孪生网络跟踪算法(SiamFC)进行改进,提出一种基于条件对抗生成孪生网络的目标跟踪算法(CGANSiamFC).首先,在SiamFC框架的基础上嵌入条件对抗生成网络模块,对输入的低分辨率模糊视频帧去...  相似文献   

9.
视频人脸替换中的关键问题是如何更好地重建人脸图像、融合图像和保证视频的连续性,为了提升重建图像和人脸掩模质量,解决视频播放不自然问题,提出一种基于双重注意力机制和光流估计的自动人脸替换方法。人脸重建网络以生成对抗网络为主体,为了提升网络的特征提取能力,在人脸重建网络中引入双重注意力模块,并使用深度可分离卷积替代模块中部分卷积,降低引入模块增加的网络计算量。针对人脸重建后前后帧时间域关系丢失的现象,添加一种基于光流估计的视频帧处理模块和平滑视频帧方法。实验结果表明,该方法相比FaceSwap、DeepFakes和FaceShifter替换方法能够更好地保持目标视频人脸的颜色、姿态和表情,使视频具有更好的连续性,提升人脸替换视频质量。  相似文献   

10.
针对水下图像对比度低和颜色失真等问题,提出一种特征融合生成对抗网络的水下图像增强算法.首先,对水下退化图像进行颜色校正,并以卷积神经网络提取颜色校正后图像的特征;其次,以基于U-Net的特征提取网络提取水下退化图像特征,并将其与颜色校正图像的特征融合;最后,通过卷积神经网络完成融合特征到增强图像的重构.在Underwa...  相似文献   

11.
李桂  李腾 《图学学报》2020,41(4):539
人物视频生成技术是通过学习人体结构与运动的特征表示,实现从特征表示到 人物视频帧的空间生成映射。针对现有的人物视频生成算法未考虑背景环境转换及人体姿态 估计精度较低等问题,提出一种基于姿态引导的场景保留人物视频生成算法(PSPVG)。首先, 取合适的源视频和目标视频,利用分割人物外观的视频帧代替源视频帧作为网络的输入;然 后,基于GAN 的运动转换模型将源视频中的人物替换成目标人物,并保持动作一致性;最后, 引用泊松图像编辑将人物外观与源背景融合,去除边界异常像素,实现将人物自然地融入源 场景且避免改变画面背景环境和整体风格。该算法使用分割出的前景人物图代替源视频帧中 的人物,减少背景干扰,提高姿态估计精度,自然地实现运动转移过程中源场景的保留,生 成艺术性与真实性和谐并存的人物视频。  相似文献   

12.
近年来,视频换脸技术发展迅速。该技术可被用于伪造视频来影响政治行动和获得不当利益,从而给社会带来严重危害,目前已经引起了各国政府和舆论的广泛关注。本文通过分析现有的主流视频换脸生成技术和检测技术,指出当前主流的生成方法在时域和空域中均具有伪造痕迹和生成损失。而当前基于神经网络检测合成人脸视频的算法大部分方法只考虑了空域的单幅图像特征,并且在实际检测中有明显的过拟合问题。针对目前检测方法的不足,本文提出一种高效的基于时空域结合的检测算法。该方法同时对视频换脸生成结果在空域与时域中的伪造痕迹进行捕捉,其中,针对单帧的空域特征设计了全卷积网络模块,该模块采用3D卷积结构,能够精确地提取视频帧阵列中每帧的伪造痕迹;针对帧阵列的时域特征设计了卷积长短时记忆网络模块,该模块能够检测伪造视频帧之间的时序伪造痕迹;最后,根据特征分类设计特征网络金字塔网络结构,该结构能够融合不同尺寸的时空域特征,通过多尺度融合来提高分类效果,并减少过拟合现象。与现有方法相比,该方法在训练中的收敛效果和分类效果方面有明显优势。除此之外,我们在保证检测准确率的前提下采用较少的参数,相比现有结构而言训练效率更高。  相似文献   

13.
使用计算机生成图像是当前计算机视觉中图像识别研究常用的一种数据增强方法。设计一种基于深度卷积生成对抗网络(DCGAN)的手写汉字图像生成模型。通过消除传统网络中的全连接层,使用批量归一化和反卷积运算来创建深度卷积和反卷积网络结构,并将它们作为生成对抗网络中的判别模型和生成模型来实现对手写汉字图像的生成。实验表明,本设计具有较好的手写体汉字图像的生成效果。  相似文献   

14.
基于生成对抗网络架构设计一种新的人脸补全模型.在生成网络中使用空洞卷积以增加特征图的感受野,提升网络性能;针对生成补全图像模糊,提出基于小波分解的损失函数设计方法,将图像转换到小波空间,提取高频信息作为l1小波损失,有效提升人脸图像补全的质量.对VGGFace2人脸数据集下半部分人脸进行遮挡,作为训练数据集,以LFW数...  相似文献   

15.
针对生成对抗网络(Generative adversarial network,GAN)不适用于原油物性回归预测的问题,本文提出一种回归生成对抗网络(Regression GAN,RGAN)结构,该结构由生成模型G、判别模型D及回归模型R组成.通过判别模型D与生成模型G间的对抗学习,D提取原油物性核磁共振氢谱(1H NMR)谱图的潜在特征.首层潜在特征是样本空间的浅层表示利于解决回归问题,采用首层潜在特征建立回归模型R,提高了预测的精度及稳定性.通过增加条件变量和生成样本间的互信息约束,并采用回归模型R的MSE损失函数估计互信息下界,生成模型G产生更真实的样本.实验结果表明,RGAN有效地提高了原油总氢物性回归预测精度及稳定性,同时加快了生成模型的收敛速度,提高了谱图的生成质量.  相似文献   

16.
脑电信号智能识别是癫痫病检测的重要手段,为更加准确地预测癫痫发作,针对目前的深度学习方法特别是卷积神经网络在脑电信号分类方面存在的一些问题,如算法复杂度过高、样本量太少导致分类效果差等,提出基于傅里叶同步压缩变换和深度卷积生成对抗网络的癫痫脑电信号检测方法。首先同步压缩方法将短时傅里叶变换处理后的信号时频能量进行压缩,使得频谱图像精度更高;其次构建深度卷积生成对抗网络来提取特征;最后实现癫痫发作预测。实验在CHB-MIT脑电数据集上进行,结果表明该方法具有97.9%的检测准确率。使用生成对抗网络有效解决了样本量不足的问题,结合同步压缩处理方法后,具有良好的识别准确性。  相似文献   

17.
图像超分辨是使低分辨率图像通过端到端训练产生边缘更清晰的高分辨率图像的一种技术,是数字图像处理的一个重要研究方向.该文提出了一种基于生成对抗网络的图像超分辨算法,并对网络结构进行改进.设计的生成器删除了残差块的BN层,增加了特征识别的相关算法,特征提取部分采用两层卷积网络,可以提取更多的图像特征,在低分辨率图像上提取特...  相似文献   

18.
针对当前数据驱动的方法罪名预测准确率较低的难题,提出新的罪名预测方法。文章利用生成对抗网络(GAN)对案件事实文本进行数据增强,扩充了训练样本。并对BERT模型进行改进,引用卷积神经网络和双向长短期记忆网络提取案件的局部特征以及前后文特征,提高重点词语在案件事实中的作用。实验结果表明,该方法相比于其他罪名预测模型,具有更高的准确率,准确率、召回率、F1值分别为0.9416,0.9412,0.9403。  相似文献   

19.
针对现有视频彩色化方法难以同时保证着色质量和时间一致性的问题,提出一种结合注意力机制和多尺度特征融合的视频彩色化方法AMVC-GAN。首先,提出以GAN为主体的视频彩色化网络模型,通过在GAN的生成器中设计以循环时间网络为主体的多尺度特征融合模块,来获取不同时间频率的信息;其次,为了有效地考虑相邻帧之间的关系,将不同时间频率提取的特征进行融合,加强帧与帧之间的联系,以此增强彩色化的时间一致性;最后,为了获取更多的有效信息,在主网络的上采样部分引入了注意力模块,并通过使用PatchGAN来对结果进行优化训练,以增强最终的着色效果。在DAVIS和VIDEVO数据集上与先进的全自动视频彩色化方法进行对比实验。结果表明,AMVC-GAN在多项指标上排名第一,具有更好的时间一致性和着色效果。相比于其他方法,AMVC-GAN能够有效地减少时间闪烁,同时保证着色效果更为真实、自然。  相似文献   

20.
在低照度环境下拍摄到的视频往往有对比度低、噪点多、细节不清晰等问题, 严重影响后续的目标检测、分割等计算机视觉任务. 现有的低照度视频增强方法大都是基于卷积神经网络构建的, 由于卷积无法充分利用像素之间的长程依赖关系, 生成的视频往往会有部分区域细节丢失、颜色失真的问题. 针对上述问题, 提出了一种局部与全局相融合的孪生低照度视频增强网络模型, 通过基于可变形卷积的局部特征提取模块来获取视频帧的局部特征, 并且设计了一个轻量级自注意力模块来捕获视频帧的全局特征, 最后通过特征融合模块对提取到的局部特征和全局特征进行融合, 指导模型能生成颜色更真实、更具细节的增强视频. 实验结果表明, 本方法能有效提高低照度视频的亮度, 生成颜色和细节都更丰富的视频, 并且在峰值信噪比和结构相似性等评价指标中也都优于近几年提出的方法.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号