首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   7篇
  免费   3篇
机械仪表   3篇
一般工业技术   1篇
自动化技术   6篇
  2023年   1篇
  2022年   1篇
  2021年   1篇
  2018年   1篇
  2015年   1篇
  2010年   3篇
  2004年   1篇
  2002年   1篇
排序方式: 共有10条查询结果,搜索用时 15 毫秒
1
1.
目的 显微光学成像有景深小和易模糊等缺陷,很难根据几何光学中的点扩散函数准确评估图像的模糊程度,进而很难计算景物深度。同时,传统的使用边缘检测算子衡量图像模糊程度变化的方法缺少与景物深度之间的函数关系,影响深度计算的精度。为此,本文提出一种显微光学系统成像模糊程度与景物深度关系曲线的获取方法。方法 从显微光学系统中的光学传递特性出发,建立光学传递函数中的光程差、高频能量参数和景物深度之间的数学关系,并通过归一化和曲线拟合得到显微光学系统的成像模糊程度与景物深度之间的解析函数。结果 为了验证本文获取的图像模糊程度和景物深度之间的函数关系,首先使用纳米方形栅格的模糊图像进行深度计算,实验测得的深度平均误差为0.008 μm,即相对误差为0.8%,与通过清晰图像和模糊图像的逐个像素亮度值比较,根据最小二乘方法搜索两幅图像的亮度差最小时求得深度的方法相比,精度提高了约73%。然后基于深度测量结果进行模糊栅格图像的清晰重构,重构后的图像在平均梯度和拉普拉斯值两个方面都明显提高,且相对于传统基于高斯点扩散函数清晰重构方法,本文方法的重构精度更高,稳定性更强;最后通过多种不同形状和亮度特性的栅格模糊图像的深度计算,证明了本文的模糊程度—深度变化曲线对不同景物的通用性。结论 本文建立的函数关系能够更加直观地反映系统参数对光学模糊成像过程的影响。使用高频能量参数表征图像的模糊特性,既可以准确测量图像模糊程度,也与景物深度具有直接的函数关系。固定光学系统参数后,建立的归一化系统成像模糊程度与景物深度之间的函数关系不会受到景物图像的纹理、亮度等特性差异的影响,鲁棒性强、更方便、更省时。  相似文献   
2.
目的 双目测距和单目测距是目前常用的两种基于光学传感器的测距方法,双目测距需要相机标定和图像配准,计算量大且测量范围有限,而单目测距减少了对设备和场地的要求,加快了计算时间。为了解决现有的单目测距方法存在精度低、鲁棒性差等缺点,本文提出了一种基于单模糊图像和B样条小波变换的自适应距离测量方法。方法 引入拉普拉斯算子量化评估图像模糊程度,并根据模糊程度值自动定位阶跃边缘;利用B样条小波变换代替高斯滤波器主动模糊化目标图像,并通过分析图像模糊程度、模糊次数以及测量误差之间的关系模型,自适应地计算不同景物图像的最优模糊次数;根据最优模糊图像中阶跃边缘两侧模糊程度变化求解目标边缘和相机之间的相对距离。结果 本文方法与基于高斯模糊图像的距离测量方法相比精度更高,平均相对误差降低5%。使用不同模糊次数对同样的图像进行距离测量时,本文算法能够自适应选取最优模糊次数,保证所测量距离的精度更高。结论 本文提出的单视觉测距方法,综合了传统的方法和B样条小波的优点,测距结果更准确,自适应性和鲁棒性更高。  相似文献   
3.
新的Otsu阈值改进方法的红外小目标检测   总被引:7,自引:2,他引:5  
针对红外小目标区域灰度对比度很差的现象,以及红外小目标实时性检测的要求,在对Otsu阈值方法进行研究的基础上,结合红外小目标图像的自身特点,提出了一种新的Otsu阈值改进的红外小目标检测方法。该方法不仅继承了Otsu阈值方法比较简单,计算速度较快的优点,更重要的是很好地解决了照度不均匀的图像分割时候多个红外小目标粘连的问题,使红外小目标能够被清晰地检测出来。实验结果表明,新的Otsu阈值改进方法检测出红外小目标的准确率比Otsu阈值检测方法提高了20%。  相似文献   
4.
为了实现2 维非耦合纳米驱动控制,介绍了一种基于压电陶瓷驱动和柔性筋板导向的一体化新型纳米 级微动平台的结构设计.重点介绍了运用解析计算方法对平台结构力学特性的分析研究,得出了该平台导向筋板弱 截面处的最大应力以及主体机构的基频值,并通过有限元仿真验证了解析计算结果的正确性.最后,采用显微视觉 技术,进行了微动平台动态运动性能的测试实验,给出了平台的动态输入输出特性曲线.  相似文献   
5.
1引言 近年来,随着科学技术的发展,高精度空间定位与轨迹跟踪技术在先进制造、医疗服务、科学研究等领域所具有的应用价值日趋凸现.基于视觉的空间定位方式因其良好的环境与对象的适应性而受到各研究和应用领域的普遍重视,一直是感知传感技术的研究"热点".视觉空间定位是通过摄像机观测目标物体,运用几何投影关系,计算其在参考系中的位姿状态与运动轨迹,可对作业过程实行各种位姿检测,为位姿控制与监控操作提供必要的信息,因而成为用途极为广泛的高新技术之一.常规的视觉空间定位方法采用投影几何机理,根据视觉系统的配置和检测对象的不同可使用结构光法、视角法、单目或双目立体视觉法等.  相似文献   
6.
基于显微视觉的亚像素压电陶瓷驱动特性测量   总被引:1,自引:0,他引:1  
为了得到纳米操作压电陶瓷驱动器高精度的驱动特性,提出一种基于显微视觉的亚像素位移测量方法。本文采用Harris角点初始定位,对标准的栅格图像序列进行角点匹配,获得模板匹配的初始区域。并提出了二元拉格朗日插值与二元非线性Newton-Raphson迭代算法的亚像素位移测量方法,能够在保证良好测量精度的同时有效地减少亚像素匹配中耗时的相关计算。最后使用改进的亚像素图像块匹配方法对实际的压电陶瓷驱动器的驱动特性进行了测量,并与真实结果和理论模型描述结果进行了对比。实验结果表明,该算法位移测量精度高、稳定性好,得到的压电陶瓷驱动特性曲线符合物理分析结果,能够满足高精度的微纳米测量要求。  相似文献   
7.
利用2维离焦图像恢复景物的3维深度信息是计算机视觉中一个重要的研究方向。但是,在获取不同程度的离焦图像时,必须改变摄像机参数,例如,调节摄像机的焦距、像距或者光圈大小等。而在一些需要高倍放大观测的场合,使用的高倍精密摄像机的景深非常小,任何摄像机参数的改变都会对摄像机产生破坏性的后果,这在很大程度上限制了当前许多离焦深度恢复算法的应用范围。因此,提出了一种新的通过物距变化恢复景物全局深度信息的方法。首先,改变景物的物距获取两幅离焦程度不同的图像,然后,利用相对模糊度及热辐射方程建立模糊成像模型,最后,将景物深度信息的计算转化成一个动态优化问题并求解,获得全局景物深度信息。该方法不需改变任何摄像机参数或者计算景物的清晰图像,操作简单。仿真试验和误差分析结果表明,该方法可以实现高精度的深度信息恢复,适合应用于微纳米操作、高精度快速检测等对摄像机参数改变较为敏感的场合。  相似文献   
8.
基于亚像素图像块匹配方法的压电陶瓷驱动特性测量   总被引:4,自引:0,他引:4  
为了高精度地测量压电陶瓷的驱动特性,提出一种基于计算机视觉的亚像素图像块匹配位移测量方法.对困扰亚像素图像块匹配方法的三个重要因素:搜索区域大小、模板图像大小、亚像素拟合精度进行详细分析和试验,提出根据试验结果和微纳米图像序列的测量特点选择最佳的搜索区域、模板大小、匹配准则函数和亚像素拟合方法的原则;使用高精度纳米平台、高倍显微镜以及标准栅格所组成的试验系统对该方法进行位移测量精度的验证试验;使用改进的亚像素图像块匹配方法对实际的压电陶瓷驱动器的驱动特性曲线进行测量.结果表明,该方法得到的压电陶瓷驱动特性曲线符合物理分析结果;并且方法本身操作简单、测量结果可靠,能够满足高精度的微纳米测量要求.  相似文献   
9.
原子力显微镜(AFM)是纳米科学技术领域中的常用工具。AFM扫描成像前需要手动或半自动操作步骤实现探针与样品逼近过程,自动化程度低、操作繁琐,探针容易受损。由此,提出了一种粗精结合的分段式自动定位方法。在粗定位阶段,采用自动聚焦定位方法,提出了一种最强边缘拉普拉斯算子均值算法,具有很强的抗噪性能,可以适应AFM长行程、不同纹理样品自动聚焦,以确定探针和样品的相对位置;精定位阶段,采用精确力反馈控制方法,当样品和探针作用力超过设定值时,探针在Z向纳米平台的带动下能够自动回退,使针尖得到有效保护。通过这两种方法的有效技术融合,可以实现探针-样品逼近过程的自动化操作,提高AFM的易用性和使用效率。  相似文献   
10.
随着机器人操作系统(robot operating system, ROS)的日益普及,系统也变得更加复杂,这类系统的计算平台正逐渐转变为多核心平台.在ROS中,任务执行的顺序取决于底层任务调度策略和分配给任务的优先级,而最大限度地缩短所有任务的执行时间是并行系统任务调度的一个重要目标.受强化学习在解决各种组合优化问题的最新研究成果的启发,在考虑ROS2多线程执行器的调度机制和执行约束的前提下,提出了一种基于强化学习的任务优先级分配方法,该方法提取了基于有向无环图形式表示的任务集的时间和结构特征,通过策略梯度和蒙特卡洛树搜索(Monte Carlo tree search, MCTS)方法有效地学习ROS2调度策略并给出合理的优先级设置方案,最终达到最小化并行任务的最大完工时间的目的.通过模拟平台环境下随机生成的任务图以评估所提方法,结果表明所提方法明显优于基准方法.作为一种离线分析方法,所提方法可以很容易地扩展到复杂的ROS中,在可接受的时间内找到接近最优的解决方案.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号