首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
潘磊  束鑫  程科  张明 《光电子.激光》2014,(10):1977-1982
针对关键帧提取问题,提出了一种基于压缩感知理 论和熵计算的关键帧提取算法, 首先通过构造符合有限等距性质要求的稀疏随机投影矩阵,将高维多尺度帧图像特征变换为 低维多尺度帧图像特征, 并形成视频镜头低维多尺度特征列向量组;然后通过随机权值向量与低维多尺度特征向量的 阿达玛乘积运算生成各 帧图像的匹配特征,并根据匹配特征的相似性度量完成镜头内部的子镜头分割;最后通过交 叉熵计算在每个子镜头 中得到可能的关键帧,并由图像熵计算确定最终的关键帧。实验表明,与传统方法相比,本 文算法提取的关键帧能够更精确、更稳定描述视频镜头内容。  相似文献   

2.
类模糊C均值聚类的关键帧提取算法   总被引:2,自引:0,他引:2  
对比现有典型关键帧提取算法存在的缺陷,提出了一种类模糊C均值聚类的关键帧提取算法.该算法预先设定一个最初聚类中心,从而有效地减少了聚类算法的迭代次数;并使用视频帧序列的时序特征来对FCM算法进行限定,提高了聚类效率.实验结果表明,使用该算法提取的关键帧不仅可以充分表达出视频的主要内容,而且还可以根据内容的变化提取出适当数量的关键帧.  相似文献   

3.
基于压缩传感和EMD距离的视频镜头关键帧提取   总被引:2,自引:2,他引:0  
潘磊  束鑫  程科 《电视技术》2015,39(17):5-8
关键帧提取是视频内容分析与检索技术的核心问题。提出一种基于压缩传感和EMD距离的关键帧提取方法,首先构造一个符合有限等距性质的稀疏矩阵,将帧高维特征投影到低维空间,然后通过计算帧低维特征之间的调节余弦相似度完成子镜头分割。在各子镜头中,利用EMD距离计算帧与子镜头中心的差异,并选择差异最小值所对应的帧作为该子镜头的关键帧。实验结果表明,该方法提取的关键帧能够对视频内容进行准确的描述。  相似文献   

4.
由于视频帧数量较大,视频序列拼接时容易造成拼接误差大、耗时较多,为有效解决此问题,提出一种基于自适应关键帧的视频序列拼接方法。将固定间隔采样帧作为关键帧并对其进行特征点提取,利用特征点匹配结合RANSAC鲁棒估计算法得到关键帧间单映矩阵,依此计算关键帧间重叠区域,按照重叠区域比例结合折半排序方法重新定位关键帧,将此关键帧作为基准帧,重复帧采样、重叠区域确定、定位后续所需关键帧过程,直至关键帧提取完毕,最后,利用级联单映矩阵和加权融合实现视频序列无缝拼接。实验验证了该方法的有效性。  相似文献   

5.
为消除视频序列之间的冗余信息,以简单的摘要形式表达视频的主要内容,提出了一种基于视频序列的图像拼接方法。首先,采用改进的帧间聚类算法提取视频的关键帧;其次,利用SIFT算法提取关键帧的特征点,采用最近邻算法进行特征点匹配,通过引导互匹配法和投票过滤法提高匹配精度;再次通过RANSAC鲁棒估计算法得到所选帧间的单映矩阵,并使用LM非线性迭代算法对单映矩阵进行精炼。最后,利用级联单映矩阵结合加权融合算法实现了视频序列的无缝拼接,实验效果较为理想。  相似文献   

6.
提出了一种基于交互信息量的视频摘要生成方法。该方法首先使用基于交互信息量的方法进行视频镜头检测,通过对检测到镜头帧的聚类提取镜头候选关键帧。然后对候选关键帧按照相邻帧间交互信息量的比较来提取镜头关键帧,最后将镜头关键帧按时序排列在一起形成视频摘要。试验表明,这种关键帧提取算法是有效的,其建立的视频摘要能较好的反映原视频的内容。  相似文献   

7.
基于聚类的视频镜头分割和关键帧提取   总被引:3,自引:0,他引:3  
镜头分割是基于内容的视频检索和浏览首先要解决的关键技术。视频分割为镜头后,下一步的工作就是进行关键帧提取,用以描述镜头的主要内容。提出了一种改进的基于聚类的镜头分割和关键帧提取算法.在无监督聚类中引入一个参考变量,解决了利用无监督聚类进行镜头分割和关键帧提取时可能产生的帧序不连续或分割错误的问题。在关键帧提取阶段,将镜头分割为子镜头后,引入图像熵的概念提取关键帧。实验结果表明了改进算法在镜头分割和关键帧提取方面的有效性。  相似文献   

8.
针对现有视频水印算法在抗几何攻击能力方面的一些不足,提出一种基于关键帧和小波变换的盲视频水印算法.依据视频帧间差欧氏距离提取视频关键帧并分块,结合人类视觉系统特性,从关键帧不同的块中选择亮度敏感性和纹理敏感性最高的块构成三维体块,进行三维小波变换,将置乱的水印图像以不同的嵌入强度嵌入到小波系数的低频区域,利用阈值门限实现水印的盲提取.结果表明,该算法提高了水印嵌入容量,对于针对视频水印的攻击具有较好的不可见性和稳健性.  相似文献   

9.
关键帧的提取是视频数据结构化的一部分,在获得关键帧之后就可以进入基于内容的图像检索阶段,实现基于内容的视频检索。本文提出了一种在镜头边界检测之后再进行视频帧聚类的方法来提取关键帧。聚类形成了数据更小的子镜头,最后从子镜头中选择与聚类中心距离最小的一帧作为关键帧。最后,通过仿真实验表明该方法能够快速有效地提取出视频关键帧。  相似文献   

10.
视频监控系统在日常生活中日益普及,为了实现监控视频的智能分析,利用背景差分法检测并提取关注的前景目标,再结合光流算法分析目标的运动方向和强度,为了提升视频分析效率,先利用帧差欧几里得距离法计算帧与帧之间的相似度,提取视频序列的关键帧,并提出了一种运算量小检测效果较好的基于图像灰度化的背景差分法进一步提取关键帧的前景目标,最后用光流法计算得到目标的光流矢量和强度信息,为监控视频的异常判断提供依据。  相似文献   

11.
采用局部动态阈值的图像分割算法   总被引:1,自引:0,他引:1  
针对图像全局Otsu分割算法和传统的局部闻值分割算法在复杂背景图像分割中的不足,提出了一种采用局部动态阈值的图像分割算法.首先通过分析图像直方图类型对图像进行划分,并使用Otsu算法确定各个子图像的阈值.然后对阈值矩阵进行平滑和插值处理,使之成为和原图像像素数目相等的新阈值矩阵.最终利用此阈值矩阵完成图像分割.实验结果...  相似文献   

12.
苏云征  郝群  曹杰  闫雷  武帅 《红外与激光工程》2021,50(10):20200482-1-20200482-10
随着激光雷达等三维点云获取工具的快速发展,点云的语义信息在计算机视觉、智能驾驶、遥感测绘、智慧城市等领域更具重要意义。针对基于分割块特征匹配的点云语义分割方法无法处理过分割和欠分割点云块、行道树和杆状物的语义分割精度低等问题,提出了一种基于分割块合并策略的行道树和杆状物点云语义分割方法,该方法可对聚类分割后感兴趣的分割块进行合并,通过计算其多维几何特征实现对合并后的物体分类,并使用插值优化算法对分割结果进行优化,最终实现城市道路环境下行道树和杆状物的语义分割。实验结果表明,所提方法可将城市道路环境下的行道树、杆状物等点云数据的召回率和语义分割精度平均提升至89.9%以上。基于分割块合并的语义分割方法,可以很好地解决城市道路下行道树和杆状物语义分割精度低等问题,该方法对于三维场景感知等问题的研究具有重要意义。  相似文献   

13.
林森  赵振禹  任晓奎  陶志勇 《红外与激光工程》2022,51(8):20210702-1-20210702-12
3D点云数据处理在物体分割、医学图像分割和虚拟现实等领域起到了重要作用。然而现有3D点云学习网络全局特征提取范围小,难以描述局部高级语义信息,进而导致点云特征表述不完整。针对这些问题,提出一种基于语义信息补偿全局特征的物体点云分类分割网络。首先,将输入的点云数据对齐到规范空间,进行数据的输入转换预处理。然后,利用扩张边缘卷积模块提取转换后数据的每一层特征,并叠加生成全局特征。而在局部特征提取时,利用提取到的低级语义信息来描述高级语义信息和有效几何特征,用于补偿全局特征中遗漏的点云特征。最后,融合全局特征和局部高级语义信息得到点云的整体特征。实验结果表明,文中方法在分类和分割性能上优于目前经典和新颖的算法。  相似文献   

14.
逆合成孔径雷达(ISAR)成像技术能够对空间目标进行远距离成像,刻画目标的外形、结构和尺寸等信息。ISAR图像语义分割能够获取目标的感兴趣区域,是ISAR图像解译的重要技术支撑,具有非常重要的研究价值。由于ISAR图像表征性较差,图像中散射点的不连续和强散射点存在的旁瓣效应使得人工精准标注十分困难,基于交叉熵损失的传统深度学习语义分割方法在语义标注不精准情况下无法保证分割性能的稳健。针对这一问题,提出了一种基于生成对抗网络(GAN)的ISAR图像语义分割方法,采用对抗学习思想学习ISAR图像分布到其语义分割图像分布的映射关系,同时通过构建分割图像的局部信息和全局信息来保证语义分割的精度。基于仿真卫星目标ISAR图像数据集的实验结果证明,本文方法能够取得较好的语义分割结果,且在语义标注不够精准的情况下模型更稳健。  相似文献   

15.
Many studies have proven that statistical model-based texture segmentation algorithms yield good results provided that the model parameters and the number of regions be known a priori. In this correspondence, we present an unsupervised texture segmentation method that does not require knowledge about the different texture regions, their parameters, or the number of available texture classes. The proposed algorithm relies on the analysis of local and global second and higher order spatial statistics of the original images. The segmentation map is modeled using an augmented-state Markov random field, including an outlier class that enables dynamic creation of new regions during the optimization process. A Bayesian estimate of this map is computed using a deterministic relaxation algorithm. Results on real-world textured images are presented.  相似文献   

16.
模糊C-均值聚类算法是一种无监督图像分割技术,但存在着初始隶属度矩阵随机选取的影响,可能收敛到局部最优解的缺点。提出了一种粒子群优化与模糊C-均值聚类相结合的图像分割算法,根据粒子群优化算法强大的全局搜索能力,有效地避免了传统的FCM对随机初始值的敏感,容易陷入局部最优的缺点。实验表明,该算法加快了收敛速度,提高了图像的分割精度。  相似文献   

17.
针对现有场景流计算方法在复杂场景、大位移和运动遮挡等情况下易产生运动边缘模糊的问题,提出一种基于语义分割的双目场景流估计方法.首先,根据图像中的语义信息类别,通过深度学习的卷积神经网络模型将图像划分为带有语义标签的区域;针对不同语义类别的图像区域分别进行运动建模,利用语义知识计算光流信息并通过双目立体匹配的半全局匹配方法计算图像视差信息.然后,对输入图像进行超像素分割,通过最小二乘法耦合光流和视差信息,分别求解每个超像素块的运动参数.最后,在优化能量函数中添加语义分割边界的约束信息,通过更新像素到超像素块的映射关系和超像素块到移动平面的映射关系得到最终的场景流估计结果.采用KITTI 2015标准测试图像序列对本文方法和代表性的场景流计算方法进行对比分析.实验结果表明,本文方法具有较高的精度和鲁棒性,尤其对于复杂场景、运动遮挡和运动边缘模糊的图像具有较好的边缘保护作用.  相似文献   

18.
顾英杰  贾振红  覃锡忠  杨杰  庞韶宁 《通信技术》2011,44(2):118-119,122
实现了基于混合蛙跳与模糊C-均值结合的图像分割算法。克服了由于FCM算法易受初始聚类中心和隶属度矩阵的影响而使图像分割效果不理想的缺陷。蛙跳算法(SFLA)是一种全新的后启发式群体优化算法,具有高效的计算性能和优良的全局搜索能力。实验表明:该方法与FPSO结合既提高了图像分割的效率又能得到更好的图像分割效果。  相似文献   

19.
陈莹  陈巧媛 《电子与信息学报》2020,42(12):3037-3044
为减轻行人图片中的背景干扰,使网络着重于行人前景并且提高前景中人体部位的利用率,该文提出引入语义部位约束(SPC)的行人再识别网络。在训练阶段,首先将行人图片同时输入主干网络和语义部位分割网络,分别得到行人特征图和部位分割图;然后,将部位分割图与行人特征图融合,得到语义部位特征;接着,对行人特征图进行池化得到全局特征;最后,同时使用身份约束和语义部位约束训练网络。在测试阶段,由于语义部位约束使得全局特征拥有部位信息,因此测试时仅使用主干网络提取行人的全局信息即可。在大规模公开数据集上的实验结果表明,语义部位约束能有效使得网络提高辨别行人身份的能力并且缩减推断网络的计算花费。与现有方法比较,该文网络能更好地抵抗背景干扰,提高行人再识别性能。  相似文献   

20.
程碧波 《现代电子技术》2011,34(19):165-167,175
在诸多空管算法基础上,提出了分割空域航线和时间并压缩的研究范式。单机根据空域航线点阵和时间窗矩阵的环境参数进行全局路径寻优,然后沿全局路径模拟飞行进行局部路径寻优,并将获得的环境参数随时回写空域航线点阵和时间窗矩阵,使得全局优化和局部优化动态反馈并逼近收敛一致。算法突破传统算法难以兼顾分布优化与集中优化的局限。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号