首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
夏永泉  杨静宇 《计算机工程》2006,32(14):23-24,5
提出了一种以Walsh变换系数作为匹配基元的双目立体匹配方法。通过Walsh正交变换核对图像,变换得到Walsh系数,图像的特征被嵌入到该系数中,费用函数采用了Walsh变换系数作为匹配基元,而不是采用传统的像素灰度值。该文给出了算法的费用函数、匹配过程中相关的数据和最后的视差图。试验结果表明,将Walsh 系数作为一种匹配基元的方法是可行和有效的。  相似文献   

2.
提出了一种基于特征点匹配的全景图像拼接方法.该方法首先利用sift算法提取各图像中的特征点并利用Harris算法对图像特征点提取进行了优化,然后采用基于K-d树的BBF算法查找和确定初始匹配点对,完成特征点的粗匹配,再根据图像配准结果使用稳健的RANSAC算法对粗匹配的特征点进行筛选,计算出图像间变换矩阵H,最后采用渐入渐出的加权平均的融合算法对两幅图像进行无缝拼接,形成一幅完整的全景画面.实验结果验证了该方法的有效性,拼接效果较好.  相似文献   

3.
针对多源多尺度影像配准中存在误匹配率较高和配准精度较低的问题,提出了一种基于(Scale-Invariant Feature Transform SIFT)与互信息筛选优化的影像配准算法。首先,采用SIFT算法进行特征点提取,通过快速最近邻逼近搜索(Fast Approximate Nearest Neighbors Search Library,FLANN)算法完成待配准影像的粗匹配,其次,在初始匹配点周围建立4×4邻域,计算匹配点之间的互信息值,对互信息值较小的匹配点进行剔除,寻求筛选优化后的最优变换矩阵,最后输出与基准影像互信息值最大的配准后影像作为最佳配准结果。实验结果表明:该方法与SIFT算法相比可以有效地剔除误匹配点并提高了配准精度。该方法可以应用于多源多尺度遥感影像配准,能够有效地提高配准精度。  相似文献   

4.
测试性指标的优化分配关系到改进系统测试性水平所需的费用。建立了基于费用函数的测试性指标优化分配模型。根据费用函数需满足的基本要求,以费用最小为目标,设计了一种实用的非线性费用函数。分析了费用函数中各参数对费用的影响以及各参数的获取方法。针对该非线性规划问题,在给定的系统测试性指标下,采用遗传算法求解全局最优解。应用结果表明遗传算法能够获得合理的测试性分配值,费用函数可以用于系统测试性指标的优化分配。  相似文献   

5.
针对指纹识别过程中的指纹匹配算法的准确性以及识别效果等问题,结合计算几何中平面点集的三角剖分方法-贪心算法的特点,将其引入指纹匹配处理,提出了一种基于三角网格(用贪心算法进行平面点集的三角剖分)的指纹匹配方法。该方法通过对细节点的拓扑结构进行三角划分,把空间上位置相近的细节点按照一定的规则相连,得到三角形网格,并基于该网格寻找若干参考点对,最后通过将两幅指纹图像进行姿势调整构成待识别指纹图像,使用获得的参考点对实现基于点模式的指纹匹配。经分析该方法是一种行之有效的指纹匹配方法,确保了指纹旋转、指纹平移参数计算结果的准确性,有效地提高了最终的识别效果。  相似文献   

6.
基于视差梯度的快速区域匹配方法   总被引:4,自引:0,他引:4  
通过引入视差梯度理论,本文提出了一种基于视差梯度的快速区域匹配方法,该方法首先根据匹配点的不同特性,确定匹配搜索范围,然后再进行匹配得出视差图。通过对比实验,表明采用这种可变匹配搜索范围的方法,比采用固定匹配搜索范围的方法,有更快的执行速度和更少的计算量。  相似文献   

7.
针对原M-Estimators算法完全依赖由线性最小二乘法估计得到的矩阵初始值,精度较低稳定性差的缺点,提出了一种改进的M-Estimators算法。通过考虑匹配点与对应极线的距离,计算求得较原M-Estimators算法更加精确的矩阵初始值,再利用此初始值剔除掉原匹配点集中的错误匹配点及坏点,最后运用Torr-M-Estimators法对新的匹配点集进行非线性优化计算,得到了真正的匹配点对,精确恢复了对极几何关系。以大量的模拟数据和真实图像进行了实验,给出了该算法与其他鲁棒性算法的比较结果,实验结果表明,该算法在误匹配以及高斯噪声存在的情况下,提高了基础矩阵的估计精度,并且同时具有很好的鲁棒性。  相似文献   

8.
点匹配问题一直是计算机视觉,模式识别,医学临床诊断等领域的一项重要基础性工作。本文提出了一种基于粒子群优化算法的准确、快速和鲁棒性的点匹配方法。该方法首先确定两个特征点集的点匹配问题的能量函数,通过最小化该能量函数可以同时得到点集之间的匹配矩阵和映射参数,利用粒子群优化算法求解变换参数。实验表明,该算法适用于点匹配,具有操作方便,可靠性好,不易陷入局部极值等优点。  相似文献   

9.
基于Delaunay三角化的指纹匹配方法   总被引:6,自引:0,他引:6  
将计算几何的三角划分方法引入指纹匹配,研究了一种基于DT(Delaunay triangulation)网的指纹匹配方法.通过对细节点的拓扑结构进行DT划分,把空间上位置相近的细节点按照一定规则相连,得到三角形网格.然后基于该网格寻找若干参考点对,并根据获得的参考点对将两幅指纹图像进行姿势调整.最后使用获得的参考点对实现基于点模式的指纹匹配.算法在第1届中国生物特征识别竞赛指纹组的测试结果证明了有效性.  相似文献   

10.
李冠宇  汪友生  金铭 《测控技术》2015,34(10):50-53
计算在血压作用下血管壁各点产生的应变是研究分析血管弹性的关键.为了准确而快速地确定血管壁形变前后的点对,提出一种基于区域约束的匹配算法.该方法对血管内超声图像预处理后,设定原始图像标记点,根据血管壁形变的有限性,在目标图像上根据内膜最大应变量设定搜索窗口,遍历窗口内各点邻域的归一化互相关值,并对其计算进行优化,取最大者位置作为匹配点.与一般的匹配算法相比,该方法匹配时间短、精度高.实验结果表明,在不同变形的情况下,均获得良好的匹配效果.  相似文献   

11.
基于钝角演化规则的多边形形状识别   总被引:3,自引:0,他引:3       下载免费PDF全文
串匹配技术是多边形形状识别与分类的一种常用方法,它主要是寻找从一个串到另一个串的最小代价变换,计算变换的相似测度,最终完成目标对象与模型对象的匹配。但是,由于图象分割中存在的分割不一致现象,对属性串匹配的代价因子计算影响很大,实际上也严重限制了串匹配技术的应用。本文研究依据顶点演化规则,首先对目标物体施以两种演化变换——合并与生长,将目标对象递归蜕化成与模型边数相同的近似多边形,再进行等长循环属性串的匹配,由两阶段的变换距离来决定是否匹配。该算法不仅克服了分割不一致现象的影响,而且在计算的复杂度等方面也比常规串匹配算法简单。  相似文献   

12.
闵可静  陈勇 《软件》2012,(6):113-115
随着计算机技术的不断发展,图像匹配已经成为图片处理的一个重要部分。在图像匹配中,图像的灰度匹配虽然具有匹配精度高的优点但却需要大量的计算时间,且计算时间随着使用模版的增大而大幅度增长。文章在多核的环境下使用内存优化与处理器亲和力优化方法来解决计算时间长的问题。实验结果表明,使用并行技术并结合内存优化与处理器优化方法可大幅度减少计算时间、提高缓存的命中率、避免乒乓效应的产生使并行程序的加速比与并行效率有所提高。  相似文献   

13.
李余  何希平  唐亮贵 《计算机应用》2022,42(5):1538-1546
随着计算密集和时延敏感类应用的激增,移动边缘计算(MEC)被提出应用在网络边缘为用户提供计算服务。针对基站(BS)端边缘服务器计算资源有限以及网络边缘用户远距离计算卸载的时延较长等问题,提出了基于终端直通(D2D)通信的多用户计算卸载资源优化决策,将D2D融入MEC网络使用户以D2D方式直接卸载任务到相邻用户处执行,从而能够进一步降低卸载时延和能耗。首先,以最小化包括时延和能耗的系统计算总开销为优化目标,建模多用户计算卸载和多用户计算资源分配的联合优化问题;然后,将求解该问题看作是一个D2D配对过程,并提出基于稳定匹配的低复杂度的多用户计算卸载资源优化决策算法;最后,迭代求解D2D卸载的优化分配决策。通过理论证明分析了所提算法的稳定性、最优性和复杂度等特性。仿真结果表明,所提算法相较于随机匹配算法能够有效降低10%~33%的系统计算总开销,并且其性能非常接近最优的穷举搜索算法。可见,所提基于D2D卸载的决策有利于改善时延和能耗开销性能。  相似文献   

14.
特征匹配引擎设计与实现   总被引:1,自引:0,他引:1  
网络入侵防御系统是维护网络安全的重要工具之一。特征匹配引擎是网络入侵防御系统的计算核心,用于从网络包中搜索出已知网络攻击的特征数据。对于现有的网络入侵防御系统,特征匹配引擎在整个系统中占据很大比例的计算时间。特征匹配属于计算密集型应用,对于底层的计算能力具有很高的要求。提出了一种并行特征匹配算法,并充分利用底层硬件特征,将提出的算法映射到现有的多核处理器上。在IBMSystemx3455上实现的系统具有高达17.2Gbps的处理速度和5万字条的特征字典容量,其处理速度和特征字典容量超过现有文献中的结果,包括FPGA、ASIC、网络处理器以及GPU上的实现。  相似文献   

15.
We present a new full cube computation technique and a cube storage representation approach, called the multidimensional cyclic graph (MCG) approach. The data cube relational operator has exponential complexity and therefore its materialization involves both a huge amount of memory and a substantial amount of time. Reducing the size of data cubes, without a loss of generality, thus becomes a fundamental problem. Previous approaches, such as Dwarf, Star and MDAG, have substantially reduced the cube size using graph representations. In general, they eliminate prefix redundancy and some suffix redundancy from a data cube. The MCG differs significantly from previous approaches as it completely eliminates prefix and suffix redundancies from a data cube. A data cube can be viewed as a set of sub-graphs. In general, redundant sub-graphs are quite common in a data cube, but eliminating them is a hard problem. Dwarf, Star and MDAG approaches only eliminate some specific common sub-graphs. The MCG approach efficiently eliminates all common sub-graphs from the entire cube, based on an exact sub-graph matching solution. We propose a matching function to guarantee one-to-one mapping between sub-graphs. The function is computed incrementally, in a top-down fashion, and its computation uses a minimal amount of information to generate unique results. In addition, it is computed for any measurement type: distributive, algebraic or holistic. MCG performance analysis demonstrates that MCG is 20-40% faster than Dwarf, Star and MDAG approaches when computing sparse data cubes. Dense data cubes have a small number of aggregations, so there is not enough room for runtime and memory consumption optimization, therefore the MCG approach is not useful in computing such dense cubes. The compact representation of sparse data cubes enables the MCG approach to reduce memory consumption by 70-90% when compared to the original Star approach, proposed in [33]. In the same scenarios, the improved Star approach, proposed in [34], reduces memory consumption by only 10-30%, Dwarf by 30-50% and MDAG by 40-60%, when compared to the original Star approach. The MCG is the first approach that uses an exact sub-graph matching function to reduce cube size, avoiding unnecessary aggregation, i.e. improving cube computation runtime.  相似文献   

16.
We propose a new explicit surface tracking approach for particle‐based fluid simulations. Our goal is to advect and update a highly detailed surface, while only computing a coarse simulation. Current explicit surface methods lose surface details when projecting on the isosurface of an implicit function built from particles. Our approach uses a detail‐preserving projection, based on a signed distance field, to prevent the divergence of the explicit surface without losing its initial details. Furthermore, we introduce a novel topology matching stage that corrects the topology of the explicit surface based on the topology of an implicit function. To that end, we introduce an optimization approach to update our explicit mesh signed distance field before remeshing. Our approach is successfully used to preserve the surface details of melting and highly viscous objects, and shown to be stable by handling complex cases involving multiple topological changes. Compared to the computation of a high‐resolution simulation, using our approach with a coarse fluid simulation significantly reduces the computation time and improves the quality of the resulting surface.  相似文献   

17.
目的 近年来双目视觉领域的研究重点逐步转而关注其“实时化”策略的研究,而立体代价聚合是双目视觉中最为复杂且最为耗时的步骤,为此,提出一种基于GPU通用计算(GPGPU)技术的近实时双目立体代价聚合算法。方法 选用一种匹配精度接近于全局匹配算法的局部算法——线性立体匹配算法(linear stereo matching)作为代价聚合策略;结合线性代价聚合的原理,对其主要步骤(代价计算、均值滤波及系数求解等)的计算流程进行有针对性地并行优化。结果 对于相同的实验样本,用本文方法在NVIDA GTX780 实验平台上能在更短的时间计算出代价矩阵,与原有的CPU实现方法相比,代价聚合的效率平均有了数十倍的提升。结论 实时双目立体代价聚合方法,为在个人通用PC平台上实时获取高质量双目视觉深度信息提供了一个高效可靠的途径。  相似文献   

18.
In this paper, a new algorithm is presented to compute the disparity map from a stereo pair of images by using Belief Propagation (BP). While many algorithms have been proposed in recent years, the real-time computation of an accurate disparity map is still a challenging task. The computation time and run-time memory requirements are two very important factors for all real-time applications. The proposed algorithm divides the matching process into two steps; they are initial matching and disparity map refinement. Initial matching is performed by memory efficient hierarchical belief propagation algorithm that uses less than half memory at run-time and minimizes the energy function at much faster rate as compare to other hierarchical BP algorithms that makes it more suitable for real-time applications. Disparity map refinement uses a simple but very effective single-pass approach that improves the accuracy without affecting the computation cost. Experiments by using Middlebury dataset demonstrate that the performance of our algorithm is the best among other real-time stereo matching algorithms.  相似文献   

19.
In cloud computing, cost optimization is a prime concern for load scheduling. The swarm based meta-heuristics are prominently used for load scheduling in distributed computing environment. The conventional load scheduling approaches require a lot of resources and strategies which are non-adaptive and static in the computation, thereby increasing the response time, waiting time and the total cost of computation. The swarm intelligence-based load scheduling is adaptive, intelligent, collective, random, decentralized, self-collective, stochastic and is based on biologically inspired mechanisms than the other conventional mechanisms. The genetic algorithm schedules the particles based on mutation and crossover techniques. The force and acceleration acting on the particle helps in the finding the velocity and position of the next particle. The best position of the particles is assigned to cloudlets to be executed on the virtual machines in the cloud. The paper proposes a new load scheduling technique, Hybrid Genetic-Gravitational Search Algorithm (HG-GSA) for reducing the total cost of computation. The total computational cost includes cost of execution and transfer. It works on hybrid crossover technique based gravitational search algorithm for searching the best position of the particle in the search space. The best position of the particle is used calculating the force. The HG-GSA is compared to the existing approaches in the CloudSim simulator. By the convergence and statistical analysis of the results, the proposed HG-GSA approach reduces the total cost of computation considerably as compared to existing PSO, Cloudy-GSA and LIGSA-C approaches.  相似文献   

20.
目的 立体匹配是计算机双目视觉的重要研究方向,主要分为全局匹配算法与局部匹配算法两类。传统的局部立体匹配算法计算复杂度低,可以满足实时性的需要,但是未能充分利用图像的边缘纹理信息,因此在非遮挡、视差不连续区域的匹配精度欠佳。为此,提出了融合边缘保持与改进代价聚合的立体匹配。方法 首先利用图像的边缘空间信息构建权重矩阵,与灰度差绝对值和梯度代价进行加权融合,形成新的代价计算方式,同时将边缘区域像素点的权重信息与引导滤波的正则化项相结合,并在多分辨率尺度的框架下进行代价聚合。所得结果经过视差计算,得到初始视差图,再通过左右一致性检测、加权中值滤波等视差优化步骤获得最终的视差图。结果 在Middlebury立体匹配平台上进行实验,结果表明,融合边缘权重信息对边缘处像素点的代价量进行了更加有效地区分,能够提升算法在各区域的匹配精度。其中,未加入视差优化步骤的21组扩展图像对的平均误匹配率较改进前减少3.48%,峰值信噪比提升3.57 dB,在标准4幅图中venus上经过视差优化后非遮挡区域的误匹配率仅为0.18%。结论 融合边缘保持的多尺度立体匹配算法有效提升了图像在边缘纹理处的匹配精度,进一步降低了非遮挡区域与视差不连续区域的误匹配率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号