首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
VR环境图像生成中几项关键技术研究   总被引:10,自引:1,他引:9  
文中讨论了基于图像的VR环境图像生成中,未标定旋转图像序列的插补、整合及全景图的生成3项关键技术问题,并给出插补、整合及全景图生成方法。所给方法有以下优点:插补和整合图像是源图像对应的摄像机在新视点下的视图,这保证了插补和整合图像的真实性,控制参数α变化,可得到所需视点方向的插补与整合图像,即可以控制视点方向,在此基础上开发的切点累积全景图生成技术克服了传统方法中技术缺陷。实用性强;此外,所给方法  相似文献   

2.
庄克成  曾丹  陶江良  张之江 《计算机仿真》2010,27(2):208-211,246
虚拟视图生成是实现多视点交互式立体显示的关键技术,即在观察改变观看位置后,可以通过系统生成的虚拟视点获得环视的效果。为达到上述目的,提出一种视差估计的视图生成算法,利用立体视觉和图像插值技术,生成虚拟视点图像。为了提高生成视图的质量,在视差估计过程中采用了关于区域的匹配方法,并对不可靠视差点进行更新。最后设计了一种非线性图像插值的视图生成方法。实验结果表明,利用视图生成方法可以获得较高质量的虚拟视图。  相似文献   

3.
翻译算法自从提出以来受到研究者的广泛关注,基于生成对抗网络的图像翻译方法在图片风格转化、图像修复、超分辨率生成等领域得到广泛应用。针对生成对抗网络图像翻译方法框架过于庞大的缺点,提出了一种改进的生成对抗网络算法:二分生成对抗网络(BGAN)。BGAN引入二分生成器结构代替双生成器-判别器结构,神经网络模型相比以往方法资源消耗更少。实验结果表明,BGAN与其他图像翻译算法相比而言,生成的图样样本更清晰、质量更好。  相似文献   

4.
目的 传统的基于子视点叠加的重聚焦算法混叠现象严重,基于光场图像重构的重聚焦方法计算量太大,性能提升困难。为此,本文借助深度神经网络设计和实现了一种基于条件生成对抗网络的新颖高效的端到端光场图像重聚焦算法。方法 首先以光场图像为输入计算视差图,并从视差图中计算出所需的弥散圆(circle of confusion,COC)图像,然后根据COC图像对光场中心子视点图像进行散焦渲染,最终生成对焦平面和景深与COC图像相对应的重聚焦图像。结果 所提算法在提出的仿真数据集和真实数据集上与相关算法进行评价比较,证明了所提算法能够生成高质量的重聚焦图像。使用峰值信噪比(peak signal to noise ratio,PSNR)和结构相似性(structural similarity,SSIM)进行定量分析的结果显示,本文算法比传统重聚焦算法平均PSNR提升了1.82 d B,平均SSIM提升了0.02,比同样使用COC图像并借助各向异性滤波的算法平均PSNR提升了7.92 d B,平均SSIM提升了0.08。结论 本文算法能够依据图像重聚焦和景深控制要求,生成输入光场图像的视差图,进而生成对...  相似文献   

5.
为解决夜间低照度条件下目标检测准确率偏低的问题,提出一种基于循环生成对抗网络的高照度可见光图像生成方法。为提高生成器提取特征的能力,在转换器模块引入CBAM注意力模块;为避免在生成图像中产生伪影的噪声干扰,把生成器解码器的反卷积方式改为最近邻插值加卷积层的上采样方式;为了提高网络训练的稳定性,把对抗损失函数由交叉熵函数换为最小二乘函数。生成的可见光图像与红外图像、夜间可见光图像相比,在光谱信息、细节信息丰富和可视性方面取得好的优势提升,能够有效地获取目标和场景的信息。分别通过图像生成指标和目标检测指标验证该方法的有效性,其中对生成可见光图像测试得到的mAP较红外图像和真实可见光图像分别提高了11.7个百分点和30.2个百分点,可以有效提高对夜间目标的检测准确率和抗干扰能力。  相似文献   

6.
新视角图像生成任务指通过多幅参考图像,生成场景新视角图像。然而多物体场景存在物体间遮挡,物体信息获取不全,导致生成的新视角场景图像存在伪影、错位问题。为解决该问题,提出一种借助场景布局图指导的新视角图像生成网络,并标注了全新的多物体场景数据集(multi-objects novel view Synthesis,MONVS)。首先,将场景的多个布局图信息和对应的相机位姿信息输入到布局图预测模块,计算出新视角下的场景布局图信息;然后,利用场景中标注的物体边界框信息构建不同物体的对象集合,借助像素预测模块生成新视角场景下的各个物体信息;最后,将得到的新视角布局图和各个物体信息输入到场景生成器中构建新视角下的场景图像。在MONVS和ShapeNet cars数据集上与最新的几种方法进行了比较,实验数据和可视化结果表明,在多物体场景的新视角图像生成中,所提方法在两个数据集上都有较好的效果表现,有效地解决了生成图像中存在伪影和多物体在场景中位置信息不准确的问题。  相似文献   

7.
文本生成图像算法对生成图像的质量和文本匹配度有很高的要求. 为了提高生成图像的清晰度, 在现有算法的基础上改进生成对抗网络模型. 加入动态记忆网络、细节校正模块(DCM)、文本图像仿射组合模块(ACM)来提高生成图片的质量. 其中动态记忆网络可以细化模糊图像并选择重要的文本信息存储, 以提高下一阶段生成图像的质量. DCM纠正细节, 完成合成图像中缺失部分. ACM编码原始图像特征, 重建与文本描述无关的部分. 改进后的模型实现了两个目标, 一是根据给定文本生成高质量的图片, 同时保留与文本无关的内容. 二是使生成图像不再较大程度依赖于初始图像的生成质量. 通过在CUB-200-2011鸟类数据集进行研究实验, 结果表明相较之前的算法模型, FID (Frechet inception)有了显著的改善, 结果由16.09变为10.40. 证明了算法的可行性和先进性.  相似文献   

8.
书法在文化传承中占据重要地位,书法书写笔迹的生成也一直是计算机图形学的研究重点和难点.现存基于模型和经验的方法,由于建模难度大,大都将笔触表述为简单的几何图形并且缺少变化,难以真实还原毛笔书写的笔触和笔迹.使得现存书法笔迹生成软件仅仅用于娱乐,而难以上升到数字化书法教育层面.文中从计算机视觉的角度出发,通过4个相机获取毛笔的实时书写图像;针对Deeplabv3+语义分割算法无法有效地分割小尺寸类别的缺点进行优化,使用优化的Deeplabv3+算法提取图像中毛笔笔头等关键信息,并通过Hough变换和PnP位姿估计算法计算笔杆相对位姿;基于位姿信息矫正和融合各相机笔触图像,提出一种未知区域估计方法估计相机无法拍摄到的笔触区域.按照不同条件提取400多幅书写图像作为数据集并进行实验结果表明,优化后的Deeplabv3+算法平均交并比(mean intersection-over-union,mIOU)达到0.849,与优化前相比提升了0.117;在小尺寸类别上交并比(intersection-over-union,IOU)达到0.59,提升了0.473.在保证实时性的前提下,最终生成的笔触与传统基于模型和经验的方法相比,可以更加真实地还原书写时的笔触,并避免对毛笔进行复杂的建模,为笔迹生成研究提供一种新的思路.  相似文献   

9.
目前大部分基于生成对抗网络GAN的文本至图像生成算法着眼于设计不同模式的注意力生成模型,以提高图像细节的刻画与表达,但忽略了判别模型对局部关键语义的感知,以至于生成模型可能生成较差的图像细节“欺骗“判别模型。提出了判别语义增强的生成对抗网络DE-GAN模型,试图在判别模型中设计词汇-图像判别注意力模块,增强判别模型对关键语义的感知和捕捉能力,驱动生成模型生成高质量图像细节。实验结果显示,在CUB-Bird数据集上,DE-GAN在IS指标上达到了4.70,相比基准模型提升了4.2%,达到了较高的性能表现。  相似文献   

10.
随着多媒体技术的发展,诸如黑白照片着色、医学影像渲染和手绘图上色等各种图像着色应用需求逐渐增多。传统着色算法大部分存在着色模式单一、在处理部分数据时着色效果不佳或者依赖人工输入信息等缺点,对此,设计了一种条件生成对抗网络和颜色分布预测模型相结合的图像着色方法。由生成对抗网络生成着色图像,并通过预测模型的预测值来对生成器的生成的着色图像做出校正,改善了生成对抗网络生成图像颜色容易趋向单一化的问题。最后通过引入一个色彩对比度损失,进一步提升了算法在某些对比度较小的分类图像上的着色质量。通过在ImageNet数据集上的多组对比实验表明,与其他传统方法相比,该方法在更多的图像分类上有着更出色的着色效果。  相似文献   

11.
为克服不同相机视角之间的域偏移问题,提出一种基于域通用和域分离字典对学习的跨视角行人重识别算法。具体地,基于来自同一相机视角下的行人共享相同的域,并且同一视角中每个行人图像所携带的域信息在短时间内具有一致性,将同一视角下的行人图像分解为特定视角的域信息分量和域分离的行人外观特征分量,提出一个判别字典学习模型以创建用于描述域信息分量的域通用字典和描述行人外观分量的域分离字典。由于来自同一相机视角下的图像具有域相似性,因此通过低秩正则化来细化用于表示域信息的字典。为了进一步提高学习字典的判别能力,在算法中约束相同视角、相同身份的多幅图像的编码系数具有很强的相似性。此外,采用一种新颖的扩展正则化方法来解决不同行人相似外貌特征和同一行人不同外貌特征的视觉外观歧义问题。在四个具有挑战性的数据集上进行实验,结果表明域通用和域分离字典对学习的算法相对于一些现有最新算法更具有效性和优越性。  相似文献   

12.
Automated virtual camera control has been widely used in animation and interactive virtual environments. We have developed a multiple sparse camera based free view video system prototype that allows users to control the position and orientation of a virtual camera, enabling the observation of a real scene in three dimensions (3D) from any desired viewpoint. Automatic camera control can be activated to follow selected objects by the user. Our method combines a simple geometric model of the scene composed of planes (virtual environment), augmented with visual information from the cameras and pre-computed tracking information of moving targets to generate novel perspective corrected 3D views of the virtual camera and moving objects. To achieve real-time rendering performance, view-dependent textured mapped billboards are used to render the moving objects at their correct locations and foreground masks are used to remove the moving objects from the projected video streams. The current prototype runs on a PC with a common graphics card and can generate virtual 2D views from three cameras of resolution 768×576 with several moving objects at about 11 fps.  相似文献   

13.
针对单视角像机的视野局限性以及连续跟踪特定目标时运动目标实时检测的困难,提出了一种离散化活动像机运动的方法。先离散化像机运动;建立像机预置位表和背景索引表;然后,利用目标位置信息和运动信息判断像机转动情况,并结合对应的控制原理,实现了像机的调度;最后,利用通过计算机视觉方法确定了特定目标在不同离散空间的对应关系,实现了对特定目标大范围的主动跟踪和运动目标的实时检测。实验结果表明,对于复杂场景中特定运动目标大范围的主动跟踪具有较好的鲁棒性和实时性,并且可以实时提取场景中的运动区域。  相似文献   

14.
In this paper, the mapping between the desired camera feature vector and the desired camera pose (i.e., the position and orientation) is investigated to develop a measurable image Jacobian-like matrix. An image-space path planner is then proposed to generate a desired image trajectory based on this measurable image Jacobian-like matrix and an image-space navigation function (NF) (i.e., a special potential field function) while satisfying rigid body constraints. An adaptive, homography-based visual servo tracking controller is then developed to navigate the position and orientation of a camera held by the end-effector of a robot manipulator to a goal position and orientation along the desired image-space trajectory while ensuring the target points remain visible (i.e., the target points avoid self-occlusion and remain in the field-of-view (FOV)) under certain technical restrictions. Due to the inherent nonlinear nature of the problem and the lack of depth information from a monocular system, a Lyapunov-based analysis is used to analyze the path planner and the adaptive controller. Simulation results are provided to illustrate the performance of the proposed approach.  相似文献   

15.
16.
基于图象差的平面大范围视觉伺服控制   总被引:2,自引:1,他引:1  
为解决大范围偏差的控制问题,将期望图象按给定的角度间隔旋转,离线生成一系列子期望图象。比较实时采集图象与期望子图象间的差异程序可获取目标绕重心的旋转运动参数。纵使图象求重心方法给出的平动参数,实现了在大范围偏差时迅速将摄象机调整到期望位姿。在期望位姿附近结合直接图象反馈方式,实现了基于图象差的平面大范围视觉伺服控制。  相似文献   

17.
针对摄像机绕光心旋转的情形,讨论了在这种特殊情形下单应矩阵具有的性质。然后根据这些性质结合三维图像变换技术给出了一种摄像机绕光心旋转时新视图的合成方法。该方法首先利用单应矩阵的性质生成目标图像的一部分,并采用逆向映射的方法以避免产生空洞;接着利用三维图像变换生成目标图像的剩余部分;最后对由三维图像变换生成的部分进行空洞填补。实验结果表明,该方法能够生成质量较好的新视图。  相似文献   

18.
Accelerated Backward Warping   总被引:3,自引:0,他引:3       下载免费PDF全文
In this paper a plane-based backward warping algorithm is proposed to generate novel viwews from multiple reference images.First.depth information is employed to reconstruct space planes from individual refernce images and calculate the potential occluding relationship between these planes.Then the planes which represent each identical space plane from different reference images are compared with each other to decide the one with the best sample rate to be preserved and used in the later warping period while the other samples are abandoned.While the image of a novel view is produced,traditional methods in computer graphics,such as visibility test.and clipping,are used to process the planes reconstructed.Then the planes processed are projected onto the desired image form the knowledge on which plane the desired image pixels are warped from can be acquired.Finally,pixels‘ depth of the desired image is calculated and then a ackwared warping is performed from these pixels to the reference images to obtain their colors.The storage requirement in the algorithm is small and increases slowly with the number of reference images increases.By combining the strategy of only preserving the best sample parts and the backward warping algorithm ,the sample problem could be well tackled.  相似文献   

19.
步态识别系统在生物识别领域显示出巨大的潜力,然而步态识别的准确性很容易受到视角的影响。为解决这一问题,提出的方法基于循环生成对抗网络(cycle generative adversarial network, Cycle-GAN)的网络结构,结合新的特征提取模块以及多重损失函数,提出了一种用于跨视角步态识别的网络模型双通道循环一致性生成对抗网络(two-channel cycle consistency generative adversarial network, TCC-GAN)。该网络首先将步态能量图像从任意视角转换为目标视角图像,然后进行比对从而实现身份识别。TCC-GAN分别引入了重建损失、视角分类和身份保持损失来指导生成器生成具有目标视角的步态图像并同时保留身份信息。为了避免可能存在的模式崩塌问题,并保证各个输入和输出以有意义的方式进行映射,模型中还利用了循环一致性损失。数据集CASIA-B和OU-MVLP上的实验结果表明:所提TCC-GAN模型的跨视角识别率高于目前大多数其他基于GAN的跨视角步态识别模型。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号