共查询到18条相似文献,搜索用时 906 毫秒
1.
为解决点云数据分布不规则、非均匀产生的查询效率低下的问题,提出了一种基于三维点云数据空间分布特征的多级索引结构。将点云空间信息引入传统八叉树,形成一种新的数据结构——方向八叉树,用于点云空间的全局划分。在每次划分空间之前,先对点云数据进行主成分分析,形成节点的方向包围盒,再进一步将空间划分为八个子空间。为了实现数据的快速调度与查询,在局部,使用KD树对方向八叉树的叶子节点进行二次组织构建。实验结果表明,方向八叉树能有效减少节点总数和冗余节点数量;方向八叉树和KD树的组合嵌套结构可以有效划分海量点云数据,实现点云数据的高效检索,对点云数据进行有效管理。 相似文献
2.
提出一种新的点云数据精简方法,首先将包围盒内点云的平均法矢与各点法矢的夹角计算出来,依据此夹角来判断该包围盒是否需要利用八叉树分割法继续细分.然后利用二次参数曲面逼近法对点云拟合并计算各点的主曲率,并依据各点主曲率的Hausdorff距离来提取并保留特征点.实验表明简化效果十分明显,能够删除大量冗余数据且保留点云的几何特征,为后续的三维重建提高了效率. 相似文献
3.
通过三维激光扫描仪获取的点云数据具有密度大、精度高等特点。本文针对贪婪投影三角化算法在对采集的大量点云数据进行三维重建时耗时长,重构的模型表面不够光滑,存在细小孔洞的问题,提出一种改进的点云三维重建算法。该方法首先用体像素网格滤波算法对点云进行下采样;然后使用移动最小二乘算法对输入的点云进行平滑及重采样,并且使用八叉树来代替KD树进行近邻域搜索;最后使用基于移动最小二乘算法的点云法线估计的贪婪投影三角化算法对点云进行重建。经过实验验证,该方法可以缩短重建时间,减少孔洞,并构建出平滑、点云拓扑结构更为准确的模型。 相似文献
4.
5.
6.
7.
在复杂电磁空间斗争这条无形的战线上,对电磁环境的准确、直观描述一直是制约指挥人员实施准确、高效指挥的关键因素,本文围绕复杂电磁环境三维可视化方法展开研究。首先提出了混合八叉树分割方法解决了传统八叉树不能对大规模体数据直接体绘制的问题,设计了球形规则网格体数据组织模型,通过抽象电磁环境数据模型的输入、输出和计算功能,构建了复杂电磁环境的通用组织计算框架。针对传统光线投射直接体绘制算法不能正确处理视锥体裁剪问题,提出了一种视锥体裁减修正的方法,通过绘制视锥体近、远截面与体数据包围盒的相交面,解决了由于被视锥体裁剪而丢失数据的绘制错误问题。研究运用等值线绘制算法、颜色映射切片绘制算法和光线投射算法三者相结合的可视化方法,从不同高度和不同方向切割电磁环境,不仅能直观感受到复杂电磁环境的全貌,而且能观察对作战指挥最有影响的细节信息。 相似文献
8.
9.
提出了一种改进的散乱数据点k近邻搜索算法,该问题是逆向工程曲面重构技术中的关键环节。采用传统分块算法对点云空间进行首次分割,在此基础上估算点云平均点距,并利用平均点距估算结果对点云数据空间重新进行划分。分块结果使得k近邻搜索算法的搜索范围大大缩小,搜索速度明显提高。 相似文献
10.
提出了一种基于车载激光点云数据的城区分车带识别及单木点云分割方法,首先通过布料模拟算法进行点云滤波去除地面点,然后利用基于八叉树连通性分析对非地面点进行聚类并构建聚类单元的最小包围矩形,基于先验知识和高差约束进行分车带识别,最后根据单木的空间几何特征,引入基于局部最高点的区域生长算法实现分车带内点云单木分割。选取北京市某道路的车载激光点云数据进行实验,结果表明:该方法能够从车载激光点云中快速识别出分车带点云并完成单木分割,能达到较好的识别和分割效果,具有抗噪性强和提取精度高的特点。 相似文献
11.
12.
13.
本文提出一种新的用于立体图像编码的视差估计和遮挡点检测混合算法.其中的视差估计方法利用极线约束条件,在缩小搜索范围的同时提高了视差估计的准确性.遮挡点检测方法仅使用了匹配点唯一性约束和视差梯度限制这两个基本条件,降低了算法的复杂度.整个算法利用DT(Dalaunay triangulation)网格这一数学工具把散乱的点结合起来进行处理,使算法在实现方面更加简单化.本文算法首先对立体图像对中的左图像进行DT网格剖分,把各三角形的顶点作为"特征点"在右图像中寻找它们的匹配点.然后利用匹配点唯一性条件提取出其中一些顶点进行遮挡检测.实验结果表明,本文算法对"特征点"的视差估计比较准确,也能较为准确地检测出其中的遮挡点.借助DT 网格在图像编码方面的优势,本文算法可以方便地用于立体图像编码. 相似文献
14.
In experimental tests,besides data in range of allowable error,the experimenters usually get some unexpected wrong data called bad points. In usual experimental data processing,the method of bad points exclusion based on automatic programming is seldom taken into consideration by researchers. This paper presents a new method to reject bad points based on Hough transform,which is modified to save computational and memory consumptions. It is fit for linear data processing and can be extended to process data that is possible to be transformed into and from linear form; curved lines,which can be effectively detected by Hough transform. In this paper,the premise is the distribution of data,such as linear distribution and exponential distribution,is predetermined. Steps of the algorithm start from searching for an approximate curve line that minimizes the sum of parameters of data points. The data points,whose parameters are above a self-adapting threshold,will be deleted. Simulation experiments have manifested that the method proposed in this paper performs efficiently and robustly. 相似文献
15.
In experimental tests, besides data in range of allowable error, the experimenters usually get some unexpected wrong data
called bad points. In usual experimental data processing, the method of bad points exclusion based on automatic programming
is seldom taken into consideration by researchers. This paper presents a new method to reject bad points based on Hough transform,
which is modified to save computational and memory consumptions. It is fit for linear data processing and can be extended
to process data that is possible to be transformed into and from linear form; curved lines, which can be effectively detected
by Hough transform. In this paper, the premise is the distribution of data, such as linear distribution and exponential distribution,
is predetermined. Steps of the algorithm start from searching for an approximate curve line that minimizes the sum of parameters
of data points. The data points, whose parameters are above a self-adapting threshold, will be deleted. Simulation experiments
have manifested that the method proposed in this paper performs efficiently and robustly. 相似文献
16.
网络信息搜索技术的研究进展 总被引:2,自引:0,他引:2
搜索技术可以分为以分类目录为主的搜索引擎、以网页全文检索为主的搜索引擎和新兴的搜索技术。其中,对称搜索技术是当今搜索技术的代表,本文从对称搜索技术的优越性、对称性、对称搜索引擎的收录范围以及对称搜索技术在商业中的应用三个方面对其进行了介绍。Google是互联网信息搜索技术的代表,文章重点介绍了Google中的对称搜索技术以及Google进行高速搜索的关键一索引,从中可以了解到Coogle取胜的原因。 相似文献
17.
能否快速准确地对超声速弹丸在靶面上的弹着点进行定位,是影响智能报靶系统性能的核心因素。在通过建立弹丸入射模型获取弹丸入射点的过程中,传感器的布局形式对弹丸入射精度的求解至关重要。针对如何选取最佳的传感器布局方法,该文提出使用几何精度因子(GDOP)精度分析与优化算法相结合的弹丸入射精度分析方法,通过计算高精度下弹丸入射精度等号线的面积,在特定范围内寻找最佳的传感器布局形式。基于弹丸入射精度分析法进行多组理论可行性仿真实验,实际情况下进行有限入射范围仿真实验及拓展实验等,最后得出基于高精度弹丸入射定位中传感器布局的基本规律。通过多组实验验证可得,该文提出的弹丸定位精度分析法可有效地选取高精度的传感器布局方式,且最优的传感器布局均符合高精度传感器布局的基本规律。 相似文献