共查询到20条相似文献,搜索用时 125 毫秒
1.
2.
3.
文章研究在摄像机内参数不变的情况下,利用图像中场景的结构信息实现分层重构的方法.通过求解基础矩阵实现射影重构,通过求解无穷远平面单应矩阵实现仿射重构,利用虚圆点约束求解绝对二次曲线的像实现欧氏重构.实验表明所研究的算法是有效可行的. 相似文献
4.
将常用于CT图像重建的滤波反投影算法程序设计成能够运行在大数据框架Spark中的并行模式,以此来提高计算效率并实现批量图像的重建,缩短图像重建时间。基于分布式计算框架Spark,利用其图像处理工具Thunder,将滤波反投影算法在图像重建过程中设计成并行程序模式,实现图像的片间并行重建。实验结果表明,随着Spark集群规模的不断扩大,在确保重建图像质量的前提下,重建一定数量的CT图像相比单机模式下时间显著缩短,并行滤波反投影算法具有完全加速比,并行效率趋近于1。基于Spark集群实现的滤波反投影算法能够显著提升CT图像重建速度,并实现大量图像并行重建,可扩展其他的CT图像重建算法,对远程医学图像重建平台的建设具有重要参考意义。 相似文献
5.
基于视觉的导管架入水角估算方法 总被引:1,自引:0,他引:1
导管架的入水角对于导管架的滑移入水是一个非常重要的参数.根据海上导管架入水实践,提出一种基于单照相机图像序列的导管架入水角估算方法.估算导管架入水角时,依据导管架上表面的单应矩阵H计算出上表面对应的消影线,然后根据多个单应矩阵计算绝对二次曲线的图像,最后由导管架上表面的消影线、绝对二次曲线的图像以及图像中的海天分隔线估算出导管架的入水角.在模拟实验中对测量误差进行了简要分析,图像实验和真实应用表明该方法是可行的. 相似文献
6.
研究运动员运动图像三维仿真的真实性问题.运动员进行不同的运动项目时,关节所成的角度,运动速度有差异,造成不同部位在空间上会出现严重的视觉遮挡,发生特征点的重叠和丢失,造成运动员形状基计算不准确.传统的人体运动重建算法,都是以人体形状基个数为基础,没有考虑形状基计算错误带来的重建特征点缺失问题,造成仿真效果较差.提出了一种改进因式分解的人体运动图像三维动态仿真算法.运用光流体的概念合理的计算运动中的形状基个数,对形状基的数量进行约束性计算,从而实现人体运动图像序列中的三维动态仿真建模.实验结果表明,改进算法提高了人体运动图像序列三维动态仿真的真实性. 相似文献
7.
对于图像中的多尺度纹理,其高效滤波仍是一项具有挑战性的工作.为此,提出了一种尺度自适应的变核纹理滤波方法,以更有效地实现"去纹理保结构"的图像平滑.设计了一种结构探测式的滤波核尺度选择机制,即在像点的预设考察邻域内探测结构边的存在,以不含结构边的最大范围估算像点适用的滤波核尺寸;最终纹理区域内的像点获得大尺度滤波核、结构上的像点获得小尺度滤波核.以多种尺度的核同步作滤波,即为一次多尺度纹理滤波,则各像点的滤波幅度自适应于邻域的结构-纹理分布.在对纹理图像作滤波平滑的实验中,相比于已有滤波方法,文中方法能够以较少的滤波迭代次数和处理时间获得视觉对比与量化评测指标上相似或更好的平滑效果,图像滤波结果表明,该方法在纹理去除效率和滤波质量上均具有优势. 相似文献
8.
在三维计算机视觉中,消失点和消失线扮演着极其重要的角色.在此利用场景中常见的平行线和正交线的特点,通过绝对二次曲线图像和消失点的计算,测量场景中其他几何结构的关系.该方法不需要摄像机事先标定.实验表明,在单幅图像中该方法所得结果可以作为一个较好的估计值,在2幅图像中所得结果则较为精确.因此在图像测量中该方法有着一定的实用价值. 相似文献
9.
基于图像聚焦信息的三维形貌重建方法通常对微观物体的景深图像序列采用统一的聚焦评价标准,这类重建方法往往会忽视图像序列之间的联系,难以修正图像纹理稀疏或低对比度导致的连续帧深度误差.鉴于三维数据特有的多维度信息关联特性,本文将微观物体的不同景深图像序列视为三维数据,在重建过程中引入全部图像序列之间的关联关系,从三维数据时频变换的视角构造了以多视角分析、稳定性聚类、选择性融合逻辑耦合的微观三维形貌重建框架.首先从理论上分析三维数据相较于传统二维图像处理重建问题的优势,通过构造三维时频变换实现三维数据到不同尺度、区域和方向深度图像之间的映射;然后从增强深度图像特征的角度构建基于多模态纹理特征的局部稳定性聚类算法,实现同质性较好深度图像的自适应选择;最后提出选择性深度图像融合的策略,通过构造层筛过滤平衡树对滤除离散噪声后的多层深度图像进行融合,实现微观物体高精度的三维形貌重建.模拟数据与真实场景数据均验证了本文方法的有效性.三维时频变换视角的智能微观三维重建方法为基于图像聚焦信息的三维形貌重建提供一个崭新的研究视角,在精密制造、亚微米级工业测量等领域具有重要的理论意义和应用价值. 相似文献
10.
传统的三维图像表面重建技术主要通过3D扫描方法进行立体重建,当面对复杂场景时无法获取帧点坐标,导致重建图像的分辨率较低。基于此,提出融合虚拟现实技术的三维图像表面重建方法。首先,结合群体优化策略和信息素矩阵临界值,获取三维图像边缘信息;其次,运用虚拟现实技术,完成最小识别距离计算、重建点坐标计算和重建深度距离计算,确定复杂场景内每个帧点的重建坐标信息;最后,进行背景图像与前景图像的匹配分析,得到三维图像表面重建结果。实验结果表明,对于原始分辨率为1120 PPI×800 PPI的三维图像,应用该方法进行重建,所得图像的分辨率稳定保持在1280 PPI×1024 PPI,能够满足图像重建要求。 相似文献
11.
12.
图像镶嵌技术是近年来发展迅速的图像处理技术之一,是计算机视觉领域和计算机图形学领域都十分关注的研究热点之一。通过对现有遥感图像镶嵌方法的研究,时其进行了归纳和总结,并介绍了几种常见的图像镶嵌关键技术。 相似文献
13.
14.
15.
针对传统图像检索系统通过关键字搜索图像时缺乏语义主题多样性的问题,提出了一种基于互近邻一致性和近邻传播的代表性图像选取算法,为每个查询选取与其相关的不同语义主题的图像集合. 该算法利用互近邻一致性调整图像间的相似度,再进行近邻传播(AP)聚类将图像集分为若干簇,最后通过簇排序选取代表性图像簇并从中选取中心图像为代表性图像. 实验表明,本文方法的性能超过基于K-means的方法和基于Greedy K-means的方法,所选图像能直观有效地概括源图像集的内容,并且在语义上多样化. 相似文献
16.
《国际互联网参考资料服务季刊》2013,18(3-4):205-209
Abstract In a few short years, Google has become one of the world's best known brands. Its strategies to preserve the brand image pose a challenge for information professionals who attempt to present Google's capabilities in a factual manner. 相似文献
17.
18.
基于内容检索的图像自动标注方法研究 总被引:1,自引:1,他引:0
图像标注技术是近年来的研究热点。为了更好地解决图像自动标注问题,提出了一个基于检索和重排序的标注方法。在检索阶段,通过使用基于MSF的全局特征对待标注图像进行基于内容的检索,从而在图像数据库中得到一系列的相似图像数据集;在重排序阶段,利用随机漫步方法对相似图像数据集的标注信息进行重排序,最终排序后的关键词则为待标注图像的标注信息。该方法不仅跳过了漫长的训练阶段,而且充分利用了网络上那些已经具有标注信息的图像,具有较好的稳定性和可扩展性。实验结果显示了该方法的有效性。 相似文献
19.
针对离焦模糊图像,提出了一种盲复原算法。该算法首先利用Hough变换检测出离焦图像中的直线边缘,然后基于图像的空域统计特性和修正的Grubbs检验法,定位出阶跃或近似阶跃直线边缘,在此基础上自适应计算出线扩散函数,最后利用线扩散函数求取离焦模糊半径,进而用Wiener滤波完成了图像的复原。实验结果表明,对真实的离焦模糊图像,该算法能够准确地检测和定位出阶跃或近似阶跃边缘,提高离焦模糊半径的鉴别精度和图像的复原效果,已在实际刑侦取证工作中获得较为成功的应用。 相似文献
20.
This paper proposes two new non-reference image quality metrics that can be adopted by the state-of-the-art image/video denoising algorithms for auto-denoising. The first metric is proposed based on the assumption that the noise should be independent of the original image. A direct measurement of this dependence is, however, impractical due to the relatively low accuracy of existing denoising method. The proposed metric thus tackles the homogeneous regions and highly-structured regions separately. Nevertheless, this metric is only stable when the noise level is relatively low. Most denoising algorithms reduce noise by (weighted) averaging repeated noisy measurements. As a result, another metric is proposed for high-level noise based on the fact that more noisy measurements will be required when the noise level increases. The number of measurements before converging is thus related to the quality of noisy images. Our patch-matching based metric proposes to iteratively find and add noisy image measurements for averaging until there is no visible difference between two successively averaged images. Both metrics are evaluated on LIVE2 (Sheikh et al. in LIVE image quality assessment database release 2: 2013) and TID2013 (Ponomarenko et al. in Color image database tid2013: Peculiarities and preliminary results: 2005) data sets using standard Spearman and Kendall rank-order correlation coefficients (ROCC), showing that they subjectively outperforms current state-of-the-art no-reference metrics. Quantitative evaluation w.r.t. different level of synthetic noisy images also demonstrates consistently higher performance over state-of-the-art non-reference metrics when used for image denoising. 相似文献