首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   5篇
  免费   1篇
电工技术   1篇
综合类   1篇
机械仪表   1篇
一般工业技术   3篇
  2017年   1篇
  2014年   1篇
  2013年   1篇
  2008年   1篇
  2007年   1篇
  2006年   1篇
排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
基于激光断面扫描卧式罐所获取的点云数据,提出了一种卧式罐倾斜比计算方法。该方法建立在卧式罐筒体为近似圆柱体的基础上,通过拟合筒体上点云数据得到轴线方程,从而得到卧式罐倾斜比计算方法。该方法首先给出了点云数据的预处理方法,通过基于曲率算法和对称性原理,将单层数据中的圆弧段与直线段进行分离;通过基于最小二乘法的直线拟合,剔除了由于附件引入的干扰点,以此获取稳定的圆柱拟合参数;然后,利用Levenberg-Marquardt非线性最小二乘法,拟合得到圆柱体参数方程,最终换算得到卧式罐倾斜比的精确计算。实验证明,该方法运算时间短,鲁棒性强,与手工测量相比,角度偏差小于0.01°。  相似文献   
2.
基于SUSAN和Hough变换的直线边缘亚像素定位方法   总被引:3,自引:0,他引:3  
提出了一种基于SUSAN算法和Hough变换的直线边缘亚像素定位方法.在该方法中,给出了SUSAN算法模板选择的依据,同时定义了直线边缘响应函数并引入加权Hough变换.首先,利用直线边缘响应函数对直线边缘进行提取;然后对具有响应值的灰度点进行Hough变换并将该响应值作为权值记入参数空间累加器,得到粗定位;在粗定位的基础上对映射区进行局部细化,并对区域内点进行拟合,最终得到直线边缘精定位.实验证明:直线边缘定位精度可达0.3 pixels,同时为解析曲线亚像素定位提供了一种新的思路.  相似文献   
3.
基于激光断面扫描卧式罐所获取的点云数据,提出了一种卧式罐容积计算方法。该方法建立在分层计算思想的基础上,将油罐总体积分为中间测量区和上、下非测量区3部分。首先利用曲率求角点的方法,将每层点云数据直线段数据与圆弧段数据进行分离。其次,分别通过直线和二次曲线拟合剔除干扰点,通过拟合曲线公式求取每层截面面积。然后,将测量区各高度面积值进行6次多项式拟合得到高度与面积的关系式,并通过对此积分得到测量区高度与容积的关系式。非测量区容积则采用通过计算单层卧式罐参数并最终拟合整罐罐形参数,然后根据规程,计算得到上下非测量区高度与容积的关系式。实验证明,该方法具有运算时间短,鲁棒性强,与手工测量相比,测罐容积精度可达0.3%(k=2)。  相似文献   
4.
生物芯片点样机器人系统设计   总被引:1,自引:0,他引:1  
点样机器人是生物芯片制备的关键设备之一。设计了一种接触法点样机器人系统,实现了低成本、高精度、高速度和高通量的生物芯片制备过程的自动化。经实验验证,该机器人的精度和稳定性均达到了较高的水平。  相似文献   
5.
基于HT的显微视觉亚像素定位算法   总被引:2,自引:0,他引:2  
董代  孙明磊  石晶欣  刘荣  宗光华 《光电工程》2006,33(10):28-37,66
根据显微图像的几何特点,提出了基于HT(Hough Transform)十字显微图像亚像素定位算法(SLACHT)和基于HT近似圆显微图像亚像素定位算法(SLARHT),对显微图像特征中的直线和近似圆的亚像素定位做了深入的研究。通过与经典直线HT定位算法和经典随机HT圆定位算法进行实验对比,验证了该定位算法的优越性;通过与Matlab中的直线HT定位算法和圆HT定位算法进行实验对比,验证了该算法的可靠性。大量实验表明,该算法的定位精度优于0.01像素,具有运行速度快、鲁棒性强的特点。  相似文献   
6.
为了提高大型结构体表面裂缝检测的效率,提出了一种基于图像处理技术和坐标映射相结合的定位方法。该方法首先在序列图像中抽取清晰度最高的一帧,应用Retinex算法对光照引起的亮度不均进行补偿。然后将提取的标志点图像坐标映射到观测坐标系下,根据标志点的观测坐标和世界坐标计算两坐标系间的映射关系。再根据形态学图像处理中的凸壳、像素化、细化算法提取裂缝的图像坐标;如果观测新裂缝,则将裂缝图像坐标映射到世界坐标系下;如果观测历史裂缝,则将该条裂缝的世界坐标映射到当前观测坐标系下,并计算该条历史裂缝当前的观测角度,从而实现裂缝的空间定位。经实验证明,该方法高效、准确、便捷,16 s内可实现自动定位,且偏差不大于0.07°。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号