首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   9篇
  免费   3篇
轻工业   1篇
无线电   8篇
自动化技术   3篇
  2023年   1篇
  2022年   4篇
  2021年   3篇
  2020年   1篇
  2018年   1篇
  2012年   1篇
  2005年   1篇
排序方式: 共有12条查询结果,搜索用时 15 毫秒
1.
向森 《电子测试》2021,(6):125-126
电路板在我们的日常生活中非常常见,这就使得印刷电路板的缺陷检测显得尤为重要。AOI作为新兴的检测PCB板缺陷的系统,在生产实际中正在被大家熟知并且应用。相较于传统的检测方式,AOI系统比较灵活,无论是在检测时间还是系统运算上,或者是对相关技术人员的要求相较于传统方式都比较有优势,本文就AOI系统在实际中的应用展开讨论,分析并且介绍了在实际应用中的具体细则。  相似文献   
2.
针对光场图像显著性检测存在检测目标不完整、边缘模糊的问题,本文提出了一种基于边缘引导的光场图像显著性检测方法。利用边缘增强网络提取全聚焦图像的主体图和边缘增强图,结合主体图和焦堆栈图像所提取的特征获得初始显著图,以提高检测结果的准确性和完整性;将初始显著图和边缘增强图通过特征融合模块进一步学习边缘特性的信息,突出边缘细节信息;最后,使用边界混合损失函数优化以获得边界更为清晰的显著图。实验结果表明,本文所提出的网络在最新的光场图像数据集上,F-measure和MAE分别为0.88和0.046,表现均优于现有的RGB图像、RGB-D图像和光场图像显著性检测算法。所提方法能够更加精确地从复杂场景中检测出完整的显著对象,获得边缘清晰的显著图。  相似文献   
3.
“元宇宙”概念的出现引起了学术界与产业界的广泛关注,它给人们带来了巨大的想象空间。作为元宇宙系统的底层基础,交互式多媒体技术能够满足元宇宙所需的虚实融合、逼真呈现、高交互性等应用特点,成为人们高度关注的研究领域。交互式媒体以三维场景为观察对象,以三维时空分布的点云、图像等为数据表达,在技术流程上包括三维视觉数据的获取、处理、显示等几大环节,形成了庞大的技术分支,汇聚了丰富的技术成果。本文从上述三个环节入手,分别对当前的最新技术和成果展开综述,报告了相关的科学问题、研究方法和技术效果。这些成果将为未来元宇宙系统的流畅运行奠定坚实的基础。  相似文献   
4.
现有的光场图像显著性检测算法不能有效地衡量聚焦度信息,从而影响了检测目标的完整性,造成信息的冗余和边缘模糊。考虑到焦堆栈不同的图像及全聚焦图像对于显著性预测发挥着不同的作用,提出有效通道注意力(ECA)网络和卷积长短期记忆模型(ConvLSTM)网络组成特征融合模块,在不降低维度的情况下自适应地融合焦堆栈图像和全聚焦图像的特征;然后由交互特征模块(CFM)组成的反馈网络细化信息,消除特征融合之后产生的冗余信息;最后利用ECA网络加权高层特征,更好地突出显著性区域,从而获得更加精确的显著图。所提网络在最新的数据集中,F-measure和平均绝对误差(MAE)分别为0.871和0.049,表现均优于现有的红、绿、蓝(RGB)图像、红、绿、蓝和深度(RGB-D)图像以及光场图像的显著性检测算法。实验结果表明,提出网络可以有效分离焦堆栈图像的前景区域和背景区域,获得较为准确的显著图。  相似文献   
5.
3D视频中深度编码的性能主要取决于绘制视点的主观质量,传统的失真测度方法———均方误差(MSE)不能很好地体现人眼视觉(HVS)特性。提出了一种基于结构相似度(SSIM)度量的虚拟视点绘制失真的深度编码方法。通过分析深度编码失真与虚拟视点绘制失真(用SSIM作为失真测度)的关系,建立深度编码引起虚拟视点绘制失真的估计模型。最后将绘制失真估计模型应用到基于SSIM的感知率失真优化(RDO)框架中,以此指导深度编码的最优模式选择。实验结果表明,所提方法能够提高SSIM增益,获得更好的绘制视点主观质量,有效减少绘制视点中物体边界的失真和伪影。  相似文献   
6.
深度图像表达了三维场景内物体之间的相对距离信息,根据深度图像表达的信息, 人们能够准确的获得物体在空间中的位置以及不同物体之间的相对距离,使得深度图像在立体 视觉等领域有着广泛的应用。然而受 RGB-D 传感器硬件条件的限制,获取的深度图像分辨率 低,无法满足一些具有高精度要求的实际应用的需求。近年来深度学习特别是卷积神经网络 (CNN)在图像处理方面获得了非常大的成功。为此提出了一种基于 CNN 的彩色图像引导的深度 图像超分辨率重建。首先,利用 CNN 学习彩色图像的边缘特征信息与深度图像的深度特征信 息,获得边缘纹理清晰的高分辨率深度图像;再通过不同大小尺寸滤波核的卷积层,进一步优 化深度图像的边缘纹理细节,获得更高质量的高分辨率深度图像。实验结果表明,相较于其他 方法,该方法 RMSE 值更低,重建的图像也能更好的恢复图像边缘纹理细节。  相似文献   
7.
目的 深度图像作为一种普遍的3维场景信息表达方式在立体视觉领域有着广泛的应用。Kinect深度相机能够实时获取场景的深度图像,但由于内部硬件的限制和外界因素的干扰,获取的深度图像存在分辨率低、边缘不准确的问题,无法满足实际应用的需要。为此提出了一种基于彩色图像边缘引导的Kinect深度图像超分辨率重建算法。方法 首先对深度图像进行初始化上采样,并提取初始化深度图像的边缘;进一步利用高分辨率彩色图像和深度图像的相似性,采用基于结构化学习的边缘检测方法提取深度图的正确边缘;最后找出初始化深度图的错误边缘和深度图正确边缘之间的不可靠区域,采用边缘对齐的策略对不可靠区域进行插值填充。结果 在NYU2数据集上进行实验,与8种最新的深度图像超分辨率重建算法作比较,用重建之后的深度图像和3维重建的点云效果进行验证。实验结果表明本文算法在提高深度图像的分辨率的同时,能有效修正上采样后深度图像的边缘,使深度边缘与纹理边缘对齐,也能抑制上采样算法带来的边缘模糊现象;3维点云效果显示,本文算法能准确区分场景中的前景和背景,应用于3维重建等应用能取得较其他算法更好的效果。结论 本文算法普遍适用于Kinect深度图像的超分辨率重建问题,该算法结合同场景彩色图像与深度图像的相似性,利用纹理边缘引导深度图像的超分辨率重建,可以得到较好的重建结果。  相似文献   
8.
光场图像深度估计是光场三维重建、目标检测、跟踪等应用中十分关键的技术.虽然光场图像的重聚焦特性为深度估计提供了非常有用的信息,但是在处理遮挡区域、边缘区域、噪声干扰等情况时,光场图像深度估计仍然存在很大的挑战.因此,提出了一种基于极平面图(Epipolar plane image,EPI)斜线像素一致性和极平面图区域差异性的深度估计算法用于解决遮挡和噪声问题.EPI斜线像素的一致性采用旋转线性算子(Spinning linear operator,SLO)的颜色熵度量,能够提高深度图边缘的准确性以及抗噪能力;EPI区域的差异性采用旋转平行四边形算子(Spinning parallelogram operator,SPO)的卡方x2度量,能够提高深度图深度渐变区域的准确性,并使用置信度加权的方法将两种度量进行融合,可以减少遮挡区域和噪声的干扰.另外,充分利用像素邻域的颜色相似性,使用引导保边滤波器和马尔科夫随机场(Markov random field,MRF)全局优化策略进行后处理,进一步减少深度图的边缘错误,得到遮挡边缘准确的深度图.在HCI光场数据集上进行了实验,并与经典光场深度估计算法进行了对比,结果表明该算法在主观质量和客观指标两方面都有明显提升.  相似文献   
9.
光场图像深度估计是光场三维重建、目标检测、跟踪等应用中十分关键的技术.虽然光场图像的重聚焦特性为深度估计提供了非常有用的信息,但是在处理遮挡区域、边缘区域、噪声干扰等情况时,光场图像深度估计仍然存在很大的挑战.因此,提出了一种基于极平面图(Epipolar plane image,EPI)斜线像素一致性和极平面图区域差异性的深度估计算法用于解决遮挡和噪声问题.EPI斜线像素的一致性采用旋转线性算子(Spinning linear operator,SLO)的颜色熵度量,能够提高深度图边缘的准确性以及抗噪能力;EPI区域的差异性采用旋转平行四边形算子(Spinning parallelogram operator,SPO)的卡方x2度量,能够提高深度图深度渐变区域的准确性,并使用置信度加权的方法将两种度量进行融合,可以减少遮挡区域和噪声的干扰.另外,充分利用像素邻域的颜色相似性,使用引导保边滤波器和马尔科夫随机场(Markov random field,MRF)全局优化策略进行后处理,进一步减少深度图的边缘错误,得到遮挡边缘准确的深度图.在HCI光场数据集上进行了实验,并与经典光场深度估计算法进行了对比,结果表明该算法在主观质量和客观指标两方面都有明显提升.  相似文献   
10.
2004年12月3日,全球著名眼镜框架综合制造、分销商泰兴光学集团有限公司宣布签订一项协议,收购美国第二大眼镜零售连锁店Eye Care Centers Of America (ECCA)56%的控股权,ECCA为美国第二大眼镜零售连锁店与33个州俣作,共经营378家店铺,此协议是由泰兴光学和Golden Gate Capital(GGC)共同合作签订,  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号