共查询到20条相似文献,搜索用时 0 毫秒
1.
提出了一种基于CBL布图表示的新的增量式布图规划算法.该算法能很好地解决包括不可二划分结构在内的布图规划问题.针对现有增量式的一些需求,算法给出了相应的高速解决方案.在已有的初始布局的基础上,基于CBL表示方法建立水平约束和垂直约束图,利用图中关键路径和各模块之间的累加的距离松弛量进行增量式操作.对于新模块的插入,在力求面积最小,线长最短和移动模块数目最少的目标指引下能快速地找到最佳位置作为插入点,高效地完成相关操作,算法的时间复杂性仅为O(n).通过对一组来自工业界的设计实例的测试结果表明,该算法在保证芯片的面积、线长等性能不降低甚至有所改善的情况下,运行速度相当快,仅在μs量级,满足了工业界对增量式布图规划算法在速度上的首要要求,同时保证了基本性能的稳定. 相似文献
2.
传统的Harris角点检测选用全局的阈值并且不具有尺度不变性,对于较大的图像会导致检测的角点分布不均、错检等问题,为此提出一种新的基于多尺度的Harris角点检测的图像配准方法。首先将图像分块,并对其进行相应排序,根据局部阈值来提取Harris角点,然后根据图像特征点的最邻近和次邻近距离之比来确定初始匹配,最后利用特征点附近的灰度信息来实现进一步的配准。实验证明此方法使得图像配准精度和配准效率得到了极大地提高。 相似文献
3.
一种改进的MIC的角点提取方法 总被引:2,自引:0,他引:2
针对基于多格算法的MIC角点检测方法易混淆边缘点和角点、遗漏角点及角点定位不够精确等缺点,在采用高分辨率的图像后,对低分辨率图像中的候选角点周围的2×2的像素点进行进一步计算,明显地减少了原算法由低分辨率到高分辨率的变化过程中角点的漏检和虚报的概率,同时用梯度的概念进行自适应插值,通过它对角点的候选点作进一步的筛选.测试结果表明提出的方法比改进前的MIC多格算法具有更好的效果. 相似文献
4.
基于模糊C-均值的增量式聚类算法 总被引:1,自引:1,他引:1
给出了一种新的基于FCM的聚类算法,能根据由数据的分布的特性自动获取要聚类的数日,在新增数据后,可以进行增量式聚类,结果对孤立点不敏感,并能完成FCM不具备的非球型或椭球型分布的数据集的聚类,实验结果显示算法的有效性和优越性。 相似文献
5.
基于信息熵差异性度量的数据流增量集成分类算法 总被引:2,自引:0,他引:2
对分类器之间的差异性进行了研究,提出了一种基于信息熵差异性度量的增量集成分类算法,将信息熵差异性度量方法融入到基分类器选择过程中,通过对训练数据集的基分类结果的信息熵差异度计算,采用循环迭代优化的选择方法,以熵差异性最优化为约束目标,动态调整基分类器个数,实现了分类准确稳定,减少了系统开销。通过实验比对,证明了算法在数据流处理时比其他算法具有更小的开销和较强的适应性。 相似文献
6.
7.
8.
基于改进Harris算法的图像角点检测 总被引:1,自引:0,他引:1
针对Harris角点检测算法运行速度慢且单一阚值选取不当容易造成漏检正确角点或提取出较多伪角点的问题,提出了一种快速预筛选方法以提高检测效率,并结合多阈值角点提取及邻近角点剔除策略来改进算法.实验结果表明:单独使用该预筛选方式的改进算法仅用32.71%的时间就可以检测出原算法94.97%的角点;配合多阈值角点检测方法及临近点剔除策略时,改进算法的运行时间仅为原算法的61.94%,且检测出的角点分布更均匀,既能充分代表图像信息又有效地避免了角点簇拥现象. 相似文献
9.
10.
11.
在面向差别矩阵的约简算法思想的基础上,定义一种新的带权差别集合(WDS)模型,并提出了高效更新带权差别集合的算法,分析了该更新算法的时间和空间复杂度.随后,基于快速更新带权差别集合算法,提出一种增量式属性约简方法.当有新的数据对象被加入决策表,可有效提高属性约简的效率.理论分析和实验结果表明该算法适用于大数据集的约简. 相似文献
12.
13.
针对传统Harris角点检测算法的图像配准过程计算量大、速度慢等问题,提出一种快速预筛选Harris角点检测算法。首先通过FAST算法快速排除大量非特征点,再通过抑制半径解决FAST角点聚簇现象,然后在FAST角点邻域内筛选出Harris角点,最后采用Brute-Force匹配方式得到精准匹配。实验结果表明:所提改进算法不仅提高了角点检测速度而且减少了冗余角点数量,在图像配准过程中有效提高了配准速度与精度,配准效果良好。 相似文献
14.
15.
针对串行抵消列表翻转(Successive Cancellation List Flip,SCLF)译码算法存在译码性能与复杂度不能同时兼顾的问题,提出了一种快速串行抵消列表翻转(Fast Successive Cancellation List Flip,FSCLF)译码算法.该算法通过加入四种特殊结点的识别来加快译码速率,同时构建了临界集(Critical Set,CS),不再依据先前译码错误而引起的错误传播,而是通过两种特殊结点即信息比特R1结点和单奇偶校验(Single-Parity-Check,SPC)结点分别对对数似然比(Log-Likelihood Ratio,LLR)值进行计算来判决并确定翻转位置,当奇偶校验位不满足时只需翻转与最不可靠输入LLR值相对应的信息比特,这样减少了翻转次数,从而降低了算法复杂度.仿真结果表明:在误块率为10-5时,所提出的FSCLF译码算法比原SCLF译码算法的信噪比改善了0.09 dB,为中短码长情况提供了参考算法. 相似文献
16.
在原有UMHexagonS算法的基础上提出一种基于八边形网格的块匹配算法.实验数据表明:该算法在保持原有算法图像质量和比特率的条件下,在搜索速度和编码时间上取得了明显改善. 相似文献
17.
18.
19.
20.