首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
以工业相机为基础的机器视觉系统已经在现代机械制造业得到了广泛的应用,其中单目视觉定位系统则是最为常见的工业视觉系统之一。针对单目二维工业相机在实际应用中无法直接实现深度测量的问题,基于单目视觉广泛应用的平面定位场景,提出了一种基于伺服机构的相机快速标定与深度测量方法。本算法基于运动过程中的视差原理,结合伺服机构中获取的相对位移,实现了平面定位场景下二维相机的快速标定与深度测量。经实验验证,本算法在集成了单目视觉精定位系统的换夹具AGV上实现了深度方向的测量,实验结果体现出本算法良好的精度和稳定性,具备一定的实际应用价值。  相似文献   

2.
针对针织格纹面料疵点检测存在检测实时性差和疵点数据稀缺的问题,提出一种基于两阶段深度迁移学习的面料疵点检测算法,实现对疵点的实时高精度检测与检测模型的高效训练.第一阶段迁移:设计面料疵点先验知识迁移算法,通过聚类算法求得交并比最优的四类疵点预选框尺寸参数,使用带有先验知识的疵点预选框替代基于特征的定位方法,实现面料疵点...  相似文献   

3.
滚动轴承作为旋转机械的核心部件,其运行的稳定性决定了机械运行的可靠性.轴承故障主要出现在滚体、内圈、外圈上,为确保机械的安全、稳定运行,对于滚动轴承故障的分析和预测具有极大的意义.提出了一种基于深度迁移学习的方法用于滚动轴承故障数据的分析与预测,基于同一工况下的轴承各类故障搭建深度迁移学习的模型,加入稀疏自编码器用于提...  相似文献   

4.
基于深度学习和迁移学习的液压泵健康评估方法   总被引:2,自引:0,他引:2  
对液压泵建立健康评估模型需要大量训练数据,然而由于其工作条件随时间的地点变化,使得获取特定条件下的数据比较困难。为了在目标数据不足的条件下对液压泵建立健康评估模型,提出了一种深度学习和迁移学习的液压泵健康评估方法。首先,通过卷积神经网络的方法对已有大量历史条件下液压泵振动的频域信号建立预测模型,再用迁移学习的思想在少量目标液压泵数据上对深度学习模型进行微调。实验结果表明,该方法可以有效地提高预测准确率。  相似文献   

5.
为支持家庭用服务机器人抓取任务,设计了一种针对家庭环境中常见物体的实时三维重建系统.系统假设相机在围绕物体运动的同时采集图像.首先借助从运动恢复结构算法求解相机在采集图像序列时的运动轨迹.根据运动轨迹中的位置信息,基于几何约束为相机运动轨迹中的每一帧选择最合适的配对图像.提出基于虚拟双目的 立体匹配方法恢复每组配对中两...  相似文献   

6.
为了自动检测视网膜眼底图像中的糖尿病视网膜病变(DR),缩减眼科医生工作量,提供视网膜疾病检测和诊断的辅助工具,提出了基于Inception-v3模型的深度迁移学习方法对DR图像进行自动检测。使用ImageNet大数据集预先训练过的Inception-v3模型,将之前传递层参数固定,采用不断微调的方法,通过自行收集的数据集对模型的最后一个完全连接层进行重新训练得到新的分类器。实验结果表明,所提出的方法无需指定病变的特征就能够获得高精度预测和高可靠性检测。除了帮助眼科医生作出诊断决定之外,还可以基于视网膜眼底图像帮助自动筛查早期DR。  相似文献   

7.
8.
齿轮箱作为系统传动的核心部件,确保其健康状态对于旋转机械有效运行至关重要。然而,目前大多数传统故障诊断方法通常难以充分挖掘故障相关特征信息,且常见模型在变工况服役条件下通用性差。与此同时,实际工程应用中往往难以获取充足标签数据。针对上述问题,提出一种基于深度卷积迁移学习的变工况机车齿轮箱故障诊断方法。首先,考虑到单一通道所含信息往往存在严重局限性,将多通道特征信息进行有机融合作为输入,搭建深度卷积网络自适应挖掘多通道深度特征,得到源域诊断模型。进一步将不同工况下多通道信号作为输入训练源域模型以增强其感知能力以及泛化性,由源域向目标域做迁移映射,从而实现变工况下的齿轮箱故障诊断。采用齿轮箱故障实验声学数据进行验证分析,结果表明:该方法能在不同的工况下实现知识迁移,增强诊断模型的通用性,准确高效地实现齿轮箱故障诊断,诊断准确率超过99%;对比其他传统故障诊断方法,所提方法有更好的时效性和泛化性。  相似文献   

9.
针对菌落人工计数的不确定性、效率低等问题,对工业相机、图像处理、特征对比以及计数算法等展开研究。提出了一种基于机器视觉的菌落计数算法。首先搭建一套图像采集系统获取菌落图像,然后利用灰度处理、中值滤波、边缘检测连接、阈值分割、粘连分割、边缘剔除等一系列图像处理方法对菌落图像进行处理,得到菌落的二值化图像,最后根据连通域计数法完成菌落计数,实现客观、快速的菌落计数。通过与人工计数误差对比,计数精度达到了90%,满足了菌落计数的要求。  相似文献   

10.
11.
障碍物定位与测量是智能移动机器人自主运动的核心问题之一。研究了一种结合障碍物色彩属性和接触边缘属性的算法,通过单个视觉传感器实现平坦路面中障碍物的定位和测量。该算法以图像中已知路面范围的外观属性为基准对图像进行初步处理,依据障碍物和地面接触边缘属性对障碍物进行初步定位,在障碍物上选择区域,以该区域外观属性为基准对图像进行二次处理,得到障碍物在图像中占据范围,结合视觉传感器成像原理,对障碍物位置和尺寸进行标定和测量。以轮式移动机器人为实验平台,验证所提算法的可行性和精度,最终测得其定位误差为1.6%,测量误差为1.5%。  相似文献   

12.
面向机器视觉检测鉴别的语义分割卷积神经网络(Convolutional Neural Network,CNN)模型能识别、测量被测对象的零部件、尺寸等特征,针对机器视觉检测鉴别增加识别零部件或关键部位的需求,以及进一步迁移学习会损失CNN模型部分权值的问题,提出一种基于标签预留Softmax算法的语义分割迁移学习技术....  相似文献   

13.
针对轴孔零件精密装配过程中单目视觉定位系统的使用困难,设计了一种基于单目视觉的轴孔零件定位系统,提出了基于图像特征的零件倾斜角计算方法,可直接判定零件倾斜姿态。通过对椭圆快速检测算法进行优化,减小噪声影响,实现了高精度检测。最终通过该系统实现了轴孔零件的准确定位,提高了轴孔零件自动装配的成功率。实验证明,提出的方法能够在单目视觉条件下准确得到待装配零件的空间位置信息,满足同轴度要求15μm级的轴孔精密装配需求,具有较好的工程应用价值。  相似文献   

14.
机床主轴温度场分析是一种减少主轴热误差、提高主轴精度及其稳定性的重要方法。作为热分析边界条件中关键参数的对流换热系数,其值大小反映了主轴零部件表面与空气对流换热的强度,对主轴有限元温度场分析结果的影响最为明显。以170CP06-DM机械主轴为研究对象,深入研究主轴对流换热系数的影响因素,提出一种基于人工蜂群优化算法的机床主轴换热系数优化算法。实验表明,提出的蜂群算法能够根据环境温度和转速而自动寻找优化的主轴换热系数。与传统的经验确定对流换热系数方法相比,主轴前轴承处的计算最大误差、平均误差、均方差分别提高了大约4.54℃、2.87℃、1.65℃,主轴后轴承处的计算最大误差、平均误差、均方差分别提高了大约7.12℃、3.49℃、2.41℃。  相似文献   

15.
为了实现单摄像头工作的双足机器人NAO的视觉定位,采用单目视觉技术,建立一个空间点定位模型。根据摄像机的小孔透视模型,将图像中的二维坐标通过几何关系映射为机器人坐标系中的三维坐标,实现NAO基于单目视觉技术对空间目标定位。进行了定位实验,实验结果误差在允许范围之内,验证了该定位方法的实际可行性。  相似文献   

16.
传统铣削稳定性分析因采用静态刀尖点频响函数和平均切削力系数而使其在真实工况下的预测精度降低。为此,引入迁移学习提出一种基于少量实验样本的铣削稳定性预测方法。首先,生成静态刀尖点频响函数和平均切削力系数在全转速范围内多个系列的随机值,并在各系列下进行铣削稳定性分析,通过计算少量极限切削深度实验值与对应的预测值之间的误差,确定最优系列并以其构造源域稳定域数据;然后,利用大量源域数据建立极限切削深度的预训练模型,通过少量实验样本全局微调此模型使其适应真实加工场景。以40组颤振实验样本展开实例验证,所提方法比采用少样本建模的预测精度提升32%,并对比不同数据规模下各类模型预测精度,共同验证所提方法的有效性。  相似文献   

17.
针对传统粗糙度测量方法识别准确率不高的问题,提出了基于迁移学习和模型融合的粗糙度检测方法。首先,采用所设计粗糙度检测系统中的CCD相机模组采集工件表面图像并制作数据集;其次,通过迁移微调VGGNet-19、Inception-V3 以及DenseNet121进行多模型融合,得到了适用的粗糙度检测模型;最后,用数据集进行网络训练以提取图像中的纹理细节特征,实现对粗糙度等级的精准识别。针对车削、铣削和磨削共15种粗糙度等级图像进行实验验证,系统识别精度可达91%。结果表明,所提出的系统可有效地实现粗糙度等级自动检测。  相似文献   

18.
基于彩色图像的高速目标单目位姿测量方法   总被引:1,自引:0,他引:1       下载免费PDF全文
针对风洞分离实验对于视觉测量系统的高精度、大视场、高速的测量要求,提出一种基于单目摄像机的风洞运动目标位姿测量方法。该方法利用单目摄像机进行运动目标位姿信息测量,相比于双目测量方法具有设备简单、视场大的优点。首先提出一种基于靶标特征点相互约束关系的参数优化方法,采用复合式靶标实现摄像机的快速高精度标定;针对目标运动图像处理,提出一种基于图像差叠法和标记点位置估计的图像快速分割与目标定位方法,实现图像特征的快速准确定位;针对单目测量要求及目标运动特性,提出一种基于方向估计标记点布局方式,实现合作标记点的快速识别和提取;最后利用单目视觉原理求解运动目标的位置和姿态信息,通过实验室模拟实验完成了测量系统的精度验证,在1 m×1 m视场范围内,其位移测量精度可达到0.19 mm,俯仰和偏航角测量精度可达到0.18°。  相似文献   

19.
基于单目视觉的并联机器人末端位姿检测   总被引:4,自引:1,他引:3  
高效、准确地检测机器人末端位姿误差是实现运动学标定的关键环节。提出一种基于单目摄像机拍摄立体靶标序列图像信息的末端执行器6维位姿误差辨识方法,构造具有平行四边形几何约束的四个空间特征点,并以平行四边形的两个消隐点为约束,建立空间刚体位姿与其二维图像映射关系模型,实现末端位姿的精确定位,然后以Delta高速并联机器人为对象,进行了运动学标定试验,验证该方法的有效性,为这类机器人低成本、快速、在线运动学标定提供重要的理论与技术基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号