共查询到19条相似文献,搜索用时 125 毫秒
1.
2.
3.
4.
基于传统二维Otsu分割算法的输送带撕裂检测方法采用穷尽搜索式的阈值选取方式,图像分割时间长、实时性差,不能同时满足撕裂检测精度与速度要求。针对上述问题,提出了一种基于狮群优化二维Otsu算法的输送带撕裂检测方法。首先通过输送带撕裂检测装置采集输送带图像,采用中值滤波和直方图均衡化对采集到的图像进行去噪和增强处理,突出撕裂部位;然后采用狮群优化二维Otsu算法对预处理过的图像求取接近实际的分割阈值,用该阈值对输送带图像进行分割处理;最后通过计算分割后图像中黑色像素点的数量进行撕裂诊断。仿真结果表明,该方法比基于传统二维Otsu算法的检测方法寻优能力更强,输送带分割效果更好,可以准确地从输送带图像中分割出裂痕,撕裂识别的正确率为98.2%,提高效率的同时缩短了运行时间,可以满足输送带撕裂检测的准确性和实时性要求。 相似文献
5.
基于支持向量机红外图像分割的输送带纵向撕裂检测方法 总被引:1,自引:0,他引:1
针对现有输送带纵向撕裂检测方法存在检测精度低、无法消除煤矿井下复杂环境的影响问题,提出了一种基于支持向量机红外图像分割的输送带纵向撕裂检测方法。该方法首先采集输送带纵向撕裂红外图像,然后利用支持向量机对红外图像进行分割,最后通过计算撕裂像素点数目,准确检测出输送带纵向撕裂或预测纵向撕裂趋势。试验测试结果表明,采用该方法实现图像分割时间短,检测精度可达99.1%。 相似文献
6.
7.
《电子技术应用》2018,(1)
提出了一种多视点输送带纵向撕裂故障在线监测系统的设计方案,实现了输送带纵向撕裂的检测,提高了输送带的检测宽度,降低了线阵CCD相机与线阵LED光源方位调整的难度;提出了一种图像采集处理器的设计方案,实现了对多路线阵相机图像的采集、处理及传输。以TMS320C6678为核心设计了图像采集处理器的硬件电路。在集成开发环境CCS上,基于SYS/BIOS系统设计了图像采集处理器的软件,实现了对多路线阵相机的控制、多核调度及与上位机的通信。实验表明,该图像采集处理器实现了多路输送带图像的采集、处理和高速传输,最多可连接4路线阵相机,每路相机采集速率可达25 Mb/s,可用于多视点输送带纵向撕裂故障在线监测系统。 相似文献
8.
9.
《工矿自动化》2021,47(7)
煤矿井下环境昏暗、潮湿、粉尘大,采集的监控视频图像模糊,导致输送带纵向撕裂识别难度大,且现有研究成果仅关注有无纵向撕裂,未涉及撕裂损伤定位及趋势跟踪。提出一种基于多道线性激光的带式输送机纵向撕裂检测方法:采用矿用本安型结构光发射器向输送带表面投射多道线性激光、矿用本安型工业相机拍摄线性激光条纹图像,通过提取激光条纹中心线并分析其特征,判断单帧图像是否存在纵向撕裂损伤,存在损伤时搜索损伤边界点并计算损伤宽度、深度特征值;融合多帧图像检测结果及速度传感器数据,计算完整纵向撕裂损伤长度、平均宽度、平均深度;通过检测输送带上的标志物位置定位撕裂损伤纵向位置,求取损伤起点在输送带上的位宽占比定位横向位置,并基于纵向位置实现损伤趋势跟踪。设置输送带纵向撕裂损伤长度分别为0.73,0.95m,平均宽度为0.01m,平均深度为0.008m,采样速率为25帧/s,对该方法进行测试,结果表明该方法能够准确检测带式输送机有无纵向撕裂,损伤长度计算误差平均值为0.06m,损伤平均宽度、平均深度计算误差平均值为0.001m,纵向定位误差不超过0.1m,并可准确判断纵向撕裂发展趋势。 相似文献
10.
输送带纵向撕裂检测是煤矿安全生产的重要问题之一.针对矿用输送带纵向撕裂检测存在因数据量不足、损伤形态多样化、极致宽高比而导致的检测精度不足、存在误检与漏检等问题,本文提出一种改进YOLOv4的输送带纵向撕裂检测算法.首先,通过数据增强的方式扩充现有数据,构建输送带纵向撕裂数据集.其次,在主干网络之中添加可变形卷积,增强模型对多样化损伤形态的特征提取能力.最后,在特征融合阶段,引入跨阶段局部网络(CSPNet)结构,提升模型对极致宽高比的纵向撕裂检测性能,进一步降低模型的漏检与误检.实验结果表明,输送带纵向撕裂检测准确率达到92.5%, F1分数达到93.1%,基本满足输送带纵向撕裂检测要求. 相似文献
11.
Rizwan Ahmed KHAN Alexandre MEYER Hubert KONIK Saida BOUAKAZ 《Frontiers of Computer Science》2019,13(1):183
This article proposes a novel framework for the recognition of six universal facial expressions. The framework is based on three sets of features extracted from a face image: entropy, brightness, and local binary pattern. First, saliency maps are obtained using the state-of-the-art saliency detection algorithm “frequency-tuned salient region detection”. The idea is to use saliency maps to determine appropriate weights or values for the extracted features (i.e., brightness and entropy).We have performed a visual experiment to validate the performance of the saliency detection algorithm against the human visual system. Eye movements of 15 subjects were recorded using an eye-tracker in free-viewing conditions while they watched a collection of 54 videos selected from the Cohn-Kanade facial expression database. The results of the visual experiment demonstrated that the obtained saliency maps are consistent with the data on human fixations. Finally, the performance of the proposed framework is demonstrated via satisfactory classification results achieved with the Cohn-Kanade database, FG-NET FEED database, and Dartmouth database of children’s faces. 相似文献
12.
煤矿井下传送带在无煤或煤量较少的状态下长时间高速运转,会耗费大量的电能.为了节省井下传送带造成的电能损耗,本文提出了一种边缘结构相似算法和YOLOv3结合的传送带空载判定方法.通过边缘结构相似算法将结构特征和边缘特征相融合,每相邻10帧比较图片的相似度,连续比较3次判断传送带的运行状态.若传送带运行,则运用自适应锚框机制的YOLOv3模型,检测传送带上的煤量,最后判断传送带是否空载.实验结果表明,该方法可以有效准确的判断传送带的空载状态,检测准确率达到96.85%. 相似文献
13.
针对现有大多数频域显著性检测算法仅单独使用频域幅度谱或相位谱的不足,提出了多尺度下频域幅度谱与相位谱相结合的视觉注意模型。该模型先对图像进行四元变换以得到幅度谱和相位谱,然后对幅度谱进行了伽马修正和高斯滤波,最后采用信息熵作为权重对多尺度显著图进行融合。在两个公开数据集Bruce和Judd上,采用ROC曲线、AUC值和F-Measure测量方法对算法进行了验证和评估。实验结果表明提出的算法优于现有的5种视觉注意模型,能够更准确地预测出人们注意的显著区域,取得了更令人满意的结果。 相似文献
14.
15.
16.
针对运动目标跟踪问题,提出一种利用视觉显著性和粒子滤波的目标跟踪算法.借鉴人类视觉注意机制的研究成果,根据目标的颜色、亮度和运动等特征形成目标的视觉显著性特征,与目标的颜色分布模型一起作为目标的特征表示模型,利用粒子滤波进行目标跟踪.该算法能够克服利用单一颜色特征所带来的跟踪不稳定问题,并能有效解决由于目标形变、光照变化以及目标和背景颜色分布相似而产生的跟踪困难问题,具有较强的鲁棒性.在多个视频序列中进行实验,并给出相应的实验结果和分析.实验结果表明,该算法用于实现运动目标跟踪是正确有效的. 相似文献
17.
Mahadevan Vijay Vasconcelos Nuno 《IEEE transactions on pattern analysis and machine intelligence》2010,32(1):171-177
A spatiotemporal saliency algorithm based on a center-surround framework is proposed. The algorithm is inspired by biological mechanisms of motion-based perceptual grouping and extends a discriminant formulation of center-surround saliency previously proposed for static imagery. Under this formulation, the saliency of a location is equated to the power of a predefined set of features to discriminate between the visual stimuli in a center and a surround window, centered at that location. The features are spatiotemporal video patches and are modeled as dynamic textures, to achieve a principled joint characterization of the spatial and temporal components of saliency. The combination of discriminant center-surround saliency with the modeling power of dynamic textures yields a robust, versatile, and fully unsupervised spatiotemporal saliency algorithm, applicable to scenes with highly dynamic backgrounds and moving cameras. The related problem of background subtraction is treated as the complement of saliency detection, by classifying nonsalient (with respect to appearance and motion dynamics) points in the visual field as background. The algorithm is tested for background subtraction on challenging sequences, and shown to substantially outperform various state-of-the-art techniques. Quantitatively, its average error rate is almost half that of the closest competitor. 相似文献
18.
目的 立体视频能提供身临其境的逼真感而越来越受到人们的喜爱,而视觉显著性检测可以自动预测、定位和挖掘重要视觉信息,可以帮助机器对海量多媒体信息进行有效筛选。为了提高立体视频中的显著区域检测性能,提出了一种融合双目多维感知特性的立体视频显著性检测模型。方法 从立体视频的空域、深度以及时域3个不同维度出发进行显著性计算。首先,基于图像的空间特征利用贝叶斯模型计算2D图像显著图;接着,根据双目感知特征获取立体视频图像的深度显著图;然后,利用Lucas-Kanade光流法计算帧间局部区域的运动特征,获取时域显著图;最后,将3种不同维度的显著图采用一种基于全局-区域差异度大小的融合方法进行相互融合,获得最终的立体视频显著区域分布模型。结果 在不同类型的立体视频序列中的实验结果表明,本文模型获得了80%的准确率和72%的召回率,且保持了相对较低的计算复杂度,优于现有的显著性检测模型。结论 本文的显著性检测模型能有效地获取立体视频中的显著区域,可应用于立体视频/图像编码、立体视频/图像质量评价等领域。 相似文献
19.
提出一种基于视觉注意机制的运动目标跟踪方法。该方法借鉴人类的视觉注意机制的研究成果,建立视觉注意机制的计算模型,计算视频中各部分内容的视觉显著性。结合视觉显著性计算结果,提取视频图像中的显著性目标。利用颜色分布模型作为目标的特征表示模型,与视频中各显著目标进行特征匹配,实现目标的跟踪。在多个视频序列中进行实验,并给出相应的实验结果及分析。实验结果表明,提出的目标检测与跟踪算法是正确有效的。 相似文献