排序方式: 共有24条查询结果,搜索用时 15 毫秒
1.
针对多源遥感图像纹理、灰度差异大、数据量大的特点,以及传统配准方法易出现误匹配和低效率问题,提出一种初-精结合的多源遥感图像自动配准方法。首先用最大极值区域检测图像的有效特征区域,再依据区域灰度均方差确定每块区域特征点数量,采用Harris提取区域特征角点。MSER-Harris方法保证了角点分布的均匀和非冗余性。其次对图像作Contourlet变换,在分解的低频子带上构造多尺度高斯组合矩对图像进行初匹配,在高频子带上构造表征图像纹理特征的多方向灰度共生矩完成精匹配,实现同名特征点的配准。对多源遥感图像进行配准实验的结果表明,该方法在特征点数量、分布均匀度及配准精度等方面具有显著的优势,可为后期研究提供参考。 相似文献
2.
人脸识别易受到光照变化、遮挡等影响,降低了识别准确率,为此提出一种基于相对边缘方向幅值模式(relative patterns of oriented edge magnitudes,RPOEM)与尺度不变特征变换(scale-invariant feature transform,SIFT)的人脸识别算法.检测脸部的关键点,利用k-均值对这些特征点进行聚类;为消除光照变化的干扰,计算图像的相对梯度幅值,对其进行离散化分解与Gaussian滤波处理;采用局部二值模式编码生成RPOEM特征;引入加权因子,对RPOEM与SIFT特征进行加权组合;通过定义非一致度量来完成对人脸识别的共形预测.实验结果表明,与已有的人脸识别技术对比,所提算法具有更高的识别准确率,对多种复杂背景具有更强的鲁棒性. 相似文献
3.
4.
针对基于离散点的Delaunay三角网构建过程中待插入点的定位耗时问题,提出Delaunay三角网高效构建算法,并将其用于三维地形仿真应用中。对大量数据点进行分块排序预处理后,运用空间自相关理论使下一个待插入点总是紧邻新近插入点,融合最短路径定位算法和三角形面积法,结合三角形重心与点、有向线段的关系遍历三角形,减少遍历时间。在对三角网进行LOP局部优化时,采用Delaunay四叉树保存待调整的所有边的节点信息,提高遍历效率。实验结果证明,该算法构建的三维地表真实感较强,并且具有较低的时间复杂度。 相似文献
5.
3D树木建模一直都是计算机图形学、计算机视觉、虚拟现实等领域最具有挑战性的研究方向之一,国外学者在该领域做了大量研究工作,但3D树木建模综述性文章的缺乏成为其发展的制约因素。侧重从计算机视觉的角度,将当前国内外经典的3D树木建模方法分为基于图像,基于规则和基于草图等三类,并跟踪了最新的3D树木建模技术进展,对他们的成果进行了深入剖析,重点阐述3D树木建模关键技术。最后,分析和比较了几种主要的3D树木建模技术,提出轻量化3D树木建模技术是今后虚拟场景中的交互应用的发展趋势。此外,根据当前研究的难点提出了基于单张图像的轻量化混合建模的研究思路。 相似文献
6.
针对非下采样Contourlet变换具有多尺度分析及平移不变的性质,结合计算机断层成像(CT)和核磁共振(MRI)医学图像各自的成像特性,提出了基于非下采样Contourlet变换和区域特征策略来对低频、高频子带进行融合的医学图像融合方法;介绍了图像融合的评价标准,阐述了非下采样Contourlet变换的原理及实现;从视觉效果和客观数据指标方面对融合图像进行主观评判和数值评价。下颌骨系统CT和MRI图像的融合实验结果表明,该方法相对于小波变换和Contourlet变换方法,可有效综合这两种断层图像的有效信息和细节信息,融合后图像具有更优的视觉质量和量化指标。 相似文献
7.
8.
图像标题生成与描述的任务是通过计算机将图像自动翻译成自然语言的形式重新表达出来,该研究在人类视觉辅助、智能人机环境开发等领域具有广阔的应用前景,同时也为图像检索、高层视觉语义推理和个性化描述等任务的研究提供支撑。图像数据具有高度非线性和繁杂性,而人类自然语言较为抽象且逻辑严谨,因此让计算机自动地对图像内容进行抽象和总结,具有很大的挑战性。本文对图像简单标题生成与描述任务进行了阐述,分析了基于手工特征的图像简单描述生成方法,并对包括基于全局视觉特征、视觉特征选择与优化以及面向优化策略等基于深度特征的图像简单描述生成方法进行了梳理与总结。针对图像的精细化描述任务,分析了当前主要的图像“密集描述”与结构化描述模型与方法。此外,本文还分析了融合情感信息与个性化表达的图像描述方法。在分析与总结的过程中,指出了当前各类图像标题生成与描述方法存在的不足,提出了下一步可能的研究趋势与解决思路。对该领域常用的MS COCO2014(Microsoft common objects in context)、Flickr30K等数据集进行了详细介绍,对图像简单描述、图像密集描述与段落描述和图像情感描述等代表性模型在数据集上的性能进行了对比分析。由于视觉数据的复杂性与自然语言的抽象性,尤其是融合情感与个性化表达的图像描述任务,在相关特征提取与表征、语义词汇的选择与嵌入、数据集构建及描述评价等方面尚存在大量问题亟待解决。 相似文献
9.
目的 目前基于深度卷积神经网络(CNN)和长短时记忆(LSTM)网络模型进行图像描述的方法一般是用物体类别信息作为先验知识来提取图像CNN特征,忽略了图像中的场景先验知识,造成生成的句子缺乏对场景的准确描述,容易对图像中物体的位置关系等造成误判。针对此问题,设计了融合场景及物体类别先验信息的图像描述生成模型(F-SOCPK),将图像中的场景先验信息和物体类别先验信息融入模型中,协同生成图像的描述句子,提高句子生成质量。方法 首先在大规模场景类别数据集Place205上训练CNN-S模型中的参数,使得CNN-S模型能够包含更多的场景先验信息,然后将其中的参数通过迁移学习的方法迁移到CNNd-S中,用于捕捉待描述图像中的场景信息;同时,在大规模物体类别数据集Imagenet上训练CNN-O模型中的参数,然后将其迁移到CNNd-O模型中,用于捕捉图像中的物体信息。提取图像的场景信息和物体信息之后,分别将其送入语言模型LM-S和LM-O中;然后将LM-S和LM-O的输出信息通过Softmax函数的变换,得到单词表中每个单词的概率分值;最后使用加权融合方式,计算每个单词的最终分值,取概率最大者所对应的单词作为当前时间步上的输出,最终生成图像的描述句子。结果 在MSCOCO、Flickr30k和Flickr8k 3个公开数据集上进行实验。本文设计的模型在反映句子连贯性和准确率的BLEU指标、反映句子中单词的准确率和召回率的METEOR指标及反映语义丰富程度的CIDEr指标等多个性能指标上均超过了单独使用物体类别信息的模型,尤其在Flickr8k数据集上,在CIDEr指标上,比单独基于物体类别的Object-based模型提升了9%,比单独基于场景类别的Scene-based模型提升了近11%。结论 本文所提方法效果显著,在基准模型的基础上,性能有了很大提升;与其他主流方法相比,其性能也极为优越。尤其是在较大的数据集上(如MSCOCO),其优势较为明显;但在较小的数据集上(如Flickr8k),其性能还有待于进一步改进。在下一步工作中,将在模型中融入更多的视觉先验信息,如动作类别、物体与物体之间的关系等,进一步提升描述句子的质量。同时,也将结合更多视觉技术,如更深的CNN模型、目标检测、场景理解等,进一步提升句子的准确率。 相似文献
10.
为增强加密系统的抗破译能力,提出快速响应码耦合Shearlet变换的非线性光学加密算法。引入非线性复合混沌系统,构建交叉置乱方法,改变明文的像素位置;借助二维码生成器,将置乱结果转换成对应的快速响应码QR(quick response)码;采用Shearlet变换,对QR码实施5级分解,输出5个剪切系数,利用一个安全图像与第一个剪切系数互换,联合其它4个系数,借助可逆Shearlet变换,生成过渡图像;设计调制融合掩码,基于Gyrator变换,对过渡图像实施加密,获取Gyrator频谱;通过幅度-相位截断,将Gyrator频谱实施分割,输出密文。测试数据表明,与已有的光学加密方法相比,所提方案具备更高加密安全性与复原质量。 相似文献