首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
鉴于RGB相机在虚拟现实头盔等移动计算设备中的普遍性,基于RGB图像的三维人手姿态估计技术具有广阔的应用前景和研究价值,近年来已成为计算机视觉领域的一个研究热点.得益于深度学习技术的快速发展,与之相关的三维人手姿态估计算法层出不穷.文中回顾和总结了三维人手姿态估计技术.首先简述了三维人手姿态估计的相关工作,指出了其当前面临的挑战;然后梳理了基于RGB图像的三维人手姿态估计算法,对现有的基于参数模型方法和非参数模型方法进行了讨论,分析了每类算法包含的技术方法以及优缺点;之后总结了相关的三维手数据集与评价标准,并比较了每类算法在常用数据集上的表现;最后探讨了该技术的发展前景.  相似文献   

2.
刚体位姿估计旨在获取刚体在相机坐标系下的3D平移信息和3D旋转信息,在自动驾驶、机器人、增强现实等快速发展的领域起着重要作用。现对2017-2021年间的基于深度学习的刚体位姿估计方向具有代表性的研究进行汇总与分析。将刚体位姿估计的方法分为基于坐标、基于关键点和基于模板的方法。将刚体位姿估计任务划分为图像预处理、空间映射或特征匹配、位姿恢复和位姿优化4项子任务,详细介绍每一类方法的子任务实现及其优势和存在的问题。分析刚体位姿估计任务面临的挑战,总结现有解决方案及其优缺点。介绍刚体位姿估计常用的数据集和性能评价指标,并对比分析现有方法在常用数据集上的表现。最后从位姿跟踪、类别级位姿估计等多个角度对未来研究方向进行了展望。  相似文献   

3.
针对雾霾情况下室内外图像深度难以估计的问题,提出了融合感知损失函数的单幅雾霾图像深度估计方法.首先采用双尺度网络模型对雾霾图像进行粗提取,再结合底层特征进行局部细化;然后在上采样阶段使用多卷积核上采样方法,得到雾霾图像的预测深度图;最后将像素级损失函数与感知损失函数结合构造新的复合损失函数,对网络进行训练.在室内NYU...  相似文献   

4.
李佳星  赵勇先  王京华 《自动化学报》2021,47(10):2341-2363
单幅图像超分辨率(Single image super-resolution, SISR)重建是计算机视觉领域上的一个重要问题, 在安防视频监控、飞机航拍以及卫星遥感等方面具有重要的研究意义和应用价值. 近年来, 深度学习在图像分类、检测、识别等诸多领域中取得了突破性进展, 也推动着图像超分辨率重建技术的发展. 本文首先介绍单幅图像超分辨率重建的常用公共图像数据集; 然后, 重点阐述基于深度学习的单幅图像超分辨率重建方向的创新与进展; 最后, 讨论了单幅图像超分辨率重建方向上存在的困难和挑战, 并对未来的发展趋势进行了思考与展望.  相似文献   

5.
基于深度图像的手部姿态估计是人机交互和虚拟现实领域的一个重要研究问题.对近些年来该领域的研究工作进行总结和梳理.首先,简述了该问题的定义以及所面临的主要难点,并总结了常用的深度相机、数据集和评价指标;其次,将该领域内的工作分为3个类别并依次进行回顾,其中包括基于模型驱动的方法、从数据集中学习映射函数的基于数据驱动的方法以及同时结合了前两者的混合方法,在叙述过程中,着重介绍了其解决的科学问题以及仍存在的缺陷;最后,从算法的准确性、适用性和鲁棒性3个角度对这些工作分别进行进一步的分析,并对未来的研究方向进行展望.  相似文献   

6.
傅由甲 《计算机工程》2021,47(4):197-203,210
针对目前基于学习的姿态估计方法对训练样本及设备要求较高的问题,提出一种基于面部特征点定位的无需训练即能估计单幅图像中人脸姿态的方法.通过Adrian Bulat人脸特征点定位器和Candide-3构建稀疏通用人脸模型并获得五官特征点,确定模型绕Z轴的旋转范围及搜索步长,在指定Z轴旋转角度下,使用修正牛顿法通过模型的旋转...  相似文献   

7.
人体姿态估计是指从图像中检测人体各部分的位置并计算其方向和尺度信息,姿态估计的结果分二维和三维两种情况,而估计的方法分基于模型和无模型两种途径。本文首先介绍了人体姿态估计的研究背景和应用方向,然后对姿态估计的相关概念作了阐述,分析了姿态估计的输出表示,接着从人体目标检测和姿态估计两大类进行了详细分析和讨论,从实际应用的角度对各种方法做了理论上的比较和分析。最后,对相关研究还存在的问题和进一步研究的趋势作了归纳和总结。  相似文献   

8.
基于单幅图像的物体三维重建是计算机视觉领域的一个重要问题,近几十年来得到了广泛的关注.随着深度学习的不断发展,近年来基于单幅图像的物体三维重建取得了显著进展.本文对深度学习在基于单幅图像的物体三维重建领域的研究进展及具体应用进行了综述.首先介绍了基于单幅图像的三维重建的研究背景及其传统方法的研究现状,其次简要介绍了深度学习并详细综述了深度学习在基于单幅图像的物体三维重建中的应用,随后简要概述了三维物体重建的常用公共数据集,最后进行了分析与总结,指出了目前存在的问题及未来的研究方向.  相似文献   

9.
10.
为了提高基于图像的三维重建的重建效果,基于深度学习的方法已经成为近年来研究的重点。针对目前存在的方法中特征提取效果差、重建细节缺失且计算量巨大的问题,提出一种改进卷积神经网络的单个物体重建方法。通过加入改进的Inception-resnet模块来提升网络的特征提取能力,采用多种网络结构提取多特征,通过多特征依次输入3D-LSTM模块中以增强单幅图像的重建效果。实验结果表明,该方法不仅能够得到更好的重建效果,重建出更多的细节,同时在训练中花费更少的时间。  相似文献   

11.
针对单张人像的三维姿态计算,结合面貌测量和射影几何的理论提出了一种方法:首先在人面部的平面区域内,选取眼角点,口角点,鼻翼点建立人脸模型;然后根据人脸平面上两个相互垂直的特征线投影到照片上的灭点位置,求出人脸平面的旋转方向。该方法特征点易于标定,且无需任何的辅助设备和先验知识,具有一定的实用性。  相似文献   

12.
基于自适应粒子滤波的摄像机位姿估计方法   总被引:1,自引:0,他引:1  
刘伟  李利军  韩峻  管涛 《计算机应用》2008,28(10):2679-2682
提出一种基于自适应粒子滤波的摄像机位姿估计方法。该方法首先利用相邻两帧传递模型的噪声方差动态调整传递模型,接着利用内点统计方法计算粒子权值,在对权值作归一化运算之后,利用粒子加权和计算摄像机位置和姿态。实验结果表明该方法很大程度上提高了基于标识的摄像机位姿估计系统的健壮性与稳定性。  相似文献   

13.
针对视觉目标位姿估计系统中常出现的因为特征点遮挡而造成系统估计结果不准确的问题,本文提出了一种利用自适应无迹卡尔曼滤波(AUKF)作为局部滤波器的分布式融合估计方法.通过引入改进的Sage-Husa噪声估计器自适应过程噪声.根据特征点识别量将遮挡情况分为部分遮挡和严重遮挡,对部分遮挡子系统根据先验信息修复缺失观测点后进行局部滤波估计,严重遮挡子系统不参与融合,利用当前时刻整体估计结果对其进行初始化.通过仿真获取了区分遮挡情况的阈值,实验结果表明所提方法能够提升系统在遮挡情况下的估计精度与鲁棒性.  相似文献   

14.
点模式匹配问题是机器视觉与模式识别领域中一个基础问题,在目标识别、医学图像配准、遥感图像匹配、姿态估计等方面都得到广泛应用。提出一种在仿射变换下利用粒子群优化算法进行图像点模式下的匹配与姿态估计的方法。算法首先把点集匹配问题转化为解空间为仿射参数空间下的目标函数优化问题,然后运用粒子群算法对相应的变换参数进行搜索,获得问题最优解。本文贡献如下:1)给出一种仿射参数的初始估计方法,提高了后续算法搜索效率;2)引入阈值和次近点规则,改进了最近点匹配搜索方法,能较好地拒绝出格点(outliers),并提高算法有效性;3)从两方面对PSO方法进行了改进,加强了原PSO的全局和局部搜索能力。实验结果表明,算法具有有效性和鲁棒性。  相似文献   

15.
人体姿态估计是一个有着非常广泛应用前景的研究课题,并且在计算机视觉领域中,该课题已经成为了重要研究热点之一。针对人体姿态估计中的特征表达提出了一种基于二元纯位相匹配滤波器(BPOF)的特征提取算法,首先对图像中每一个像素点都从8个方向去计算扫描线段长度值,然后再将得到的8个值引入到BPOF算法中进行计算以便得到该像素点的特征值,同时针对随机森林分类器进行优化,最终对图像中的人体姿态做出估计。该改进方法在识别率以及鲁棒性方面有了很大提高,同时优化的随机森林分类器使得算法系统时间开销有所降低。  相似文献   

16.
在人工智能技术的支持下,无人机初步获得智能感知能力,在实际应用中展现出高效灵活的数据收集能力。无人机视角下的目标检测作为关键核心技术,在诸多领域中发挥着不可替代的作用,具有重要的研究意义。为了进一步展现无人机视角下的目标检测研究进展,本文对无人机视角下的目标检测算法进行了全面总结,并对已有算法进行了归类、分析和比较。1)介绍无人机视角下的目标检测概念,并总结无人机视角下目标检测所面临的目标尺度、空间分布、样本数量、类别语义以及优化目标等5大不均衡挑战。在介绍现有研究方法的基础上,特别整理并介绍了无人机视角下目标检测算法在交通监控、电力巡检、作物分析和灾害救援等实际场景中的应用。2)重点阐述从数据增强策略、多尺度特征融合、区域聚焦策略、多任务学习以及模型轻量化等方面提升无人机视角下目标检测性能的方法,总结这些方法的优缺点并分析了其与现存挑战之间的关联性。3)全面介绍基于无人机视角的目标检测数据集,并呈现已有算法在两个较常用公共数据集上的性能评估。4)对无人机视角下目标检测技术的未来发展方向进行了展望。  相似文献   

17.
从图像中获取目标物体的6D位姿信息在机器人操作和虚拟现实等领域有着广泛的应用,然而,基于深度学习的位姿估计方法在训练模型时通常需要大量的训练数据集来提高模型的泛化能力,一般的数据采集方法存在收集成本高同时缺乏3D空间位置信息等问题.鉴于此,提出一种低质量渲染图像的目标物体6D姿态估计网络框架.该网络中,特征提取部分以单张RGB图像作为输入,用残差网络提取输入图像特征;位姿估计部分的目标物体分类流用于预测目标物体的类别,姿态回归流在3D空间中回归目标物体的旋转角度和平移矢量.另外,采用域随机化方法以低收集成本方式构建大规模低质量渲染、带有物体3D空间位置信息的图像数据集Pose6DDR.在所建立的Pose6DDR数据集和LineMod公共数据集上的测试结果表明了所提出位姿估计方法的优越性以及大规模数据集域随机化生成数据方法的有效性.  相似文献   

18.
A fast registration making use of implicit polynomial (IP) models is helpful for the real-time pose estimation from single clinical free-hand Ultrasound (US) image, because it is superior in the areas such as robustness against image noise, fast registration without enquiring correspondences, and fast IP coefficient transformation. However it might lead to the lack of accuracy or failure registration.In this paper, we present a novel registration method based on a coarse-to-fine IP representation. The approach starts from a high-speed and reliable registration with a coarse (of low degree) IP model and stops when the desired accuracy is achieved by a fine (of high degree) IP model. Over the previous IP-to-point based methods our contributions are: (i) keeping the efficiency without requiring pair-wised correspondences, (ii) enhancing the robustness, and (iii) improving the accuracy. The experimental result demonstrates the good performance of our registration method and its capabilities of overcoming the limitations of unconstrained freehand ultrasound data, resulting in fast, robust and accurate registration.  相似文献   

19.
提出一种双目视觉测量空间轴对称目标姿态的新方法,应用线性方法获取轴对称目标在像面的轴线,通过两像面轴线与各自光心所成的平面相交,得到被测目标的轴线的方向矢量,进行三维姿态测量,避免了传统姿态测量中左右像面目标特征点的特征匹配或灰度匹配。模拟实验结果表明:该方法姿态角测量误差小于0.5°;且计算速度快,结果稳定,能够满足实时处理的要求。  相似文献   

20.
针对传统单幅图像深度估计线索不足及深度估计精度不准的问题,提出一种基于非参数化采样的单幅图像深度估计方法。该方法利用非参数化的学习手段,将现有RGBD数据集中的深度信息迁移到输入图像中去。首先计算输入图像和现有RGBD数据集多尺度的高层次图像特征;然后,在现有RGBD数据集中,基于高层次的图像特征通过kNN最近邻搜索找到若干与输入图像特征最匹配的候选图像,并将这些候选图像对通过SIFT流形变到输入图像进行对齐。最后,对候选深度图进行插值和平滑等优化操作便可以得到最后的深度图。实验结果表明,与现有算法相比,该方法估计得到的深度图精度更高,对输入图像的整体结构保持得更好。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号