首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 57 毫秒
1.
基于多尺度分析的三维曲线匹配技术研究   总被引:1,自引:0,他引:1  
从提取三维物体碎片轮廓曲线出发,提出一种基于多尺度分析的三维曲线匹配技术。轮廓曲线经多尺度平滑后,计算曲线的特征矢量,通过比较特征矢量以判断轮廓曲线的相似性,实现三维曲线匹配。实验表明提出的算法具有准确性、鲁棒性和容错性。  相似文献   

2.
对计算机辅助文物复原的关键技术进行研究,结合青铜器的特点,提出利用分级分段技术解决破碎青铜器拼接问题的算法。该方法主要是分两级采样,第一级根据曲线的曲率变化进行特征点进行采样,第二级为在各个特征点之间使用精细采样。匹配的时候先使用第一级采样进行匹配计算,如果匹配合适再进行第二级匹配计算。在进行匹配计算时,使用分段的方法进行匹配,匹配计算后再使用分段进行验证,提高匹配的正确率,同时采用分级的技术可以提高计算速度。  相似文献   

3.
针对多视频源图像的拼接问题,提出基于多尺度分析的图像配准及融合方法。在配准方面,弥补传统的基于 Harris 角点的配准方法对尺度变化不稳定的缺点,使其具有多尺度特性,提取的角点更加稳定精确。在融合方面,采用基于多尺度多分辨率分析的图像融合方法,克服传统空间域图像融合算法在频域上的不足,具有在空间域和频率域的局部化能力,并提供人眼视觉对其比较敏感的强对比度信息。实验结果表明,相比较传统方法,该方法所提取角点更精确、融合效果更好。  相似文献   

4.
为提高人脸识别的精度,加快人脸识别的速度,提出了基于多尺度分析的三维人脸识别方法。过多的特征点容易使判别混乱,出现自相矛盾的过饱和现象,因此采用必要数和最大数的策略来限制特征点的规模。为充分利用各尺度下的人脸特征进行识别,设计了基于ICP与PCA、LDA结合的综合特征匹配方法。实验结果表明,多尺度三维人脸识别方法识别率高于各种标准识别方法,抗噪声性能突出。  相似文献   

5.
针对三维碎片自动拼接中的碎片匹配问题,提出一种高效的轮廓曲线匹配算法。用B-样条曲线表示三维空间曲线,并计算轮廓曲线上各个点的曲率、挠率和法矢,在匹配过程中,对轮廓特征点按其邻域曲面片进行分类,根据特征点类型标志及特征段之间的欧式距离对不同轮廓上的特征段进行相似性度量,再利用法矢对相似性较高的轮廓段进行可匹配性验证。实验结果证明该算法是稳定、高效的。  相似文献   

6.
王飘  耿国华  杨稳  任健 《计算机工程》2019,45(2):315-320
陶土制文物在自然环境及人为发掘等过程中,碎片易受损缺失,断裂部位难以保证完整性,传统采用几何驱动的拼接方法受到限制。为此,针对断裂部位几何信息缺失的陶制文物碎片,提出一种结合表面几何纹理及断裂轮廓的拼接方法。使用Splatting lines生成方法提取碎片纹理特征线,对三维模型密集点采样,用不同参数溅射渲染2个深度图像,由两图像间差值生成线图。计算纹理形状边角信息,构造破损纹理约束条件,完成初步匹配。对断裂边界轮廓上的离散点集,利用遗传算法计算匹配点对,得到最终结果。实验结果表明,该方法能够实现缺损文物碎片的拼接,匹配度稳定在0. 53以上,且对纹理特征显著及缺损严重的碎片拼接效果较优。  相似文献   

7.
李红娟  张静  董伟 《计算机仿真》2012,29(1):250-252,272
研究三维曲面图像的无缝拼接问题。针对三维曲面图像拼接过程中,多个曲面图像之间的重叠区域由于像素的灰度和梯度等特征存在较大差异,像素不匹配,拼接后的重叠区域图像由于这种像素差异的存在,会存在明显图像裂缝的问题。为了解决这个问题,提出了一种基于交叉匹配的曲面图像拼接算法,该算法以互信息作为相似性测度,对待配准曲面图像的空间变换参数进行优化,运用空间曲面图像插值技术完成最后的三维曲面图像的融合,实现三维曲面图像的无缝拼接。实验表明,本文的方法能实现差异较大曲面图像的无缝拼接,取得了不错的效果。  相似文献   

8.
基于多尺度的轮廓匹配方法   总被引:1,自引:0,他引:1       下载免费PDF全文
物体的形状轮廓是计算机视觉中一个重要的特征。该文提出了一种基于多尺度下局部特征的描述和动态规划的形状匹配和识别方法。考虑到轮廓在不同尺度下特征点的变化,给出了形状的多尺度描述方法。在轮廓分段匹配过程中,根据噪声和形变的程度不同对局部轮廓分别采用不同尺度滤波,避免了局部形变及噪声导致错误的匹配结果。该算法对于噪声、形变和适度的遮挡有较好鲁棒性,用于行人识别上取得了较好的效果。  相似文献   

9.
提出了一种基于导数动态时间规整(DDTW)的三维碎片自动拼接方法,可以计算两块碎片最合理的拼接方式.同时设计了一种基于抗噪区间拟合的挠率估计方法和常数时间复杂度的三维重叠检测方法,大幅度提高了拼接的速度和准确性.首先确定物体碎片的轮廓曲线,查找角点,根据角点将轮廓曲线分段成子轮廓线,计算子轮廓曲线的挠率特征串;然后使用DDTW对两个特征串进行匹配,并给出匹配度的度量值,继而根据对应点的空间位置关系对碎片进行放缩和刚体变换,调用三维重叠检测方法排除重叠匹配;最后根据给定的评价标准找到最优匹配作为最终拼接结果.实验表明,该方法实现简单,鲁棒性强,能快速得到三维碎片集合的拼接结果.  相似文献   

10.
为获得敦煌莫高窟第172窟的全景三维模型,实现文化遗产数字化保护,提出一种三维模型的空间匹配与拼接方法。首先通过基于四目立体视觉系统的复杂场景三维重建方法,获取单一场景的三维模型;然后以场景真实三维点云数据的对应图像坐标为约束条件,进行高精度特征点匹配;最后以两对同名点在相邻两场景中的空间距离应该一致为条件,保留匹配精度高的点,用于计算旋转矩阵和平移矩阵,进行三维模型间的空间拼接。实验结果表明:与传统拼接方法相比,本文的模型拼接处无明显错位现象,视觉效果更好,传统方法与本方法的匹配误差分别为0.008 2和0.001 6,拼接精度得到显著改善。  相似文献   

11.
针对微型零件的特点,提出了一种结合图像灰度及轮廓信息的新拼接方法.该方法首先利用Canny算子得到图像的轮廓曲线,然后利用曲率尺度空间(CCS)检测图像的角点,然后利用相关法配准角点,得到图像的初步拼接,最后利用动态规划对图像轮廓进行精细拼接.本方法具有拼接精度高、自动化程度高、可靠性好的特点,适合高精度图像的拼接.  相似文献   

12.
为了对大规模显微图像进行高质量的拼接,首先提出拼接图的概念及获得高质量全景图像的3个原则,然后采用分块-空间聚类算法配准相邻图像,同时评估配准质量,并计算拼接图的边的权值;最后在此基础上,提出了一种基于最小路由代价生成树的图像拼接方法,该方法通过计算拼接图的最小路由代价生成树来确定所有图像的全局位置,并用来生成全景图像。实验结果表明,该方法可获得高质量的全景图像。  相似文献   

13.
14.
基于形态图表示的三维物体识别的基本思路是:首先建立待识别物体的模型库,找出模型集中所有模型物体的形态图和特征视图,并提取以它们的拓扑结构信息和几何信息;其次对物体真实图像作轮廓提取和0边界跟踪,得到二维图像的线架图,同时提取出它的拓扑结构信息和几何信息;最后将物体图像的拓扑结构信息和几何信息与模型库中模型物体的拓扑结构信息和几何信息匹配,从而达到识别的目的。文中提出了在生成线图链码时提取其拓扑结构信息和几何信息的方法,由拓扑结构信息和几何信息构造特征矩阵的方法,以及识别过程中特征矩阵的匹配算法。  相似文献   

15.
为了获得一种具有艺术视觉效果的镶嵌图象,提出了一种基于多尺度小波分解的图象镶嵌技术,该技术首先对原始图象的各子块区域和图象库中的每一幅图象进行多尺度小波分解;然后逐层计算各图象小波分解系数的标准方差和它们之间的相似距离,并据此从图象库中选取与原始图象中的各子块区域最佳匹配的贴图,再将其镶嵌到原始图象中的对应区域;最后对贴图进行逐像素的颜色校正,使贴图的颜色与原始图象尽可能一致.同时,根据人眼观察某个区域时往往通过取整或将细节取平均来得到一个总体强度效果这一视觉特性,使最终的镶嵌图象具有在近处看到的是各个贴图的内容,而在远处观看则是原始图象的总体轮廓的视觉效果.利用计算机来自动地生成这种镶嵌图象的实验结果表明,该方法是有效的.  相似文献   

16.
一种基于小波多尺度边缘表示的图像滤波方法   总被引:1,自引:0,他引:1  
该文首先介绍了信号小波变换的模极大值点和过零点的特性以及信号的多尺度边缘表示方法,然后介绍了一种在尺度空间基于小波多尺度边缘表示的图像非线性滤波方法。实验结果表明,这种滤波方法能取得令人满意的结果。  相似文献   

17.
图象多尺度边缘是图象的重要特征,已广泛应用于处理和计算机视觉等多个领域。本文给出一种基于子小我的图象多尺度边缘提取方法。实验证明该算法是行之有效的。  相似文献   

18.
论文设计并实现了一个基于交互反馈机制的三维检索系统。该系统用基于小波矩的方法提取三维模型的特征,提供交互界面允许用户对检索结果进行评判。通过将评判的结果反馈给系统的分类器和权值调整模块,系统更新权值向量等参数,不但可以改善分类的精度,还可以提高同类模型的相似性排序的计算精度。  相似文献   

19.
本文提出了一种新的圆孤逼近轮廓曲线进行目标匹配的方法—最大比率法。曲线上两点之间的圆弧和曲线夹成的面积与对应扇形的比值随曲线上点的曲率的变化而变化。通过设置一个阈值,算法可以检测曲率较大的特征点,用于圆弧逼近匹配。  相似文献   

20.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号