共查询到18条相似文献,搜索用时 156 毫秒
1.
随着网络多媒体应用的增加,各种网络视频应用需求大规模重复视频检测的方法,尤其对检测的快速和有效性要求逐渐增高.提出一种基于多层视频内容分析的快速有效检测重复视频的算法.从视频关键帧中提取的局部特征采用一种新的自适应局部敏感哈希算法进行索引.通过样本学习并设定一些参数,使检索过程不需要进行高维距离计算,从而有效的提升了处理速度.检索得到的特征向量备选集经过特征过滤和两层匹配方法完成重复视频的检测流程.在标准数据集上的实验表明,与其他最新的方法相比,本文提出的算法有效的提高了大规模重复视频的检测速度. 相似文献
2.
《计算机应用与软件》2018,(3)
在分析海量生物序列时,现有的聚类算法存在着时间效率不高、准确率较低,以及聚类结果的生物意义不足等问题。针对这些问题,提出一种基于位置信息熵的局部敏感哈希聚类方法。通过对生物序列使用K词计算其标准熵,将标准熵作为局部敏感哈希函数簇的特征向量,计算特征矩阵并应用于生物序列聚类。实验结果表明,该算法能够有效地提高时间效率和聚类的准确率。随着数据集的增大,也同样取得很好的效果,实验结果更具有生物解释性和实际意义。 相似文献
3.
传统位置服务匿名隐私保护方法大多在原始数据集上寻找匿名区域,很少对待隐匿区域进行筛选,会带来较高的时间消耗。事实上,匿名常常是在查询点周围进行的,通过采用Top-Down grid网格划分方法选择待匿名区域,提出了基于Top-Down grid的位置敏感哈希划分的k匿名隐私保护算法,不仅可以提高时间效率,而且与现实世界更相符,利用位置敏感哈希函数对所选位置点进行投影变换,使得划分更加合理、匿名损失率更小,匿名后的数据质量更高。理论分析和实验验证也表明所提方法的可行性和有效性。 相似文献
4.
针对互联网相似视频内容检测问题,提出了基于短空时变化的鲁棒视频哈希算法。特征提取和特征量化是该算法的两个关键步骤。在特征提取中,与现有基于时空信息融合的特征提取方法相比,该算法的创新性在于充分利用相邻帧之间 局部空域信息的短时变化(简称“短空时变化”)来提取特征。该算法首先构造视频内接球,并以球心为起点对内接球进行划分,获取一系列内接球环,从而捕捉相邻帧的空域信息的短时变化,然后将球环非负矩阵分解系数作为视频内容进行特征表示;在特征量化中,该算法采用改进的曼哈顿量化策略将视频特征映射成二进制的哈希序列,更好地保留了原空间中的近邻关系,提高了量化的准确度。实验结果表明,该算法具有良好的性能。 相似文献
5.
为了对被篡改过的视频进行准确快速的篡改检测与定位,引入人类视觉可计算模型,提出一种多层次、多粒度的视频篡改快速检测与定位算法.采用随机分块采样技术,提取视频结构感知特征及视频图像时域感知特征,利用哈希理论的单向摘要特性量化感知特征,获取视频摘要哈希.通过应用相似度矩阵进行多粒度、多层次篡改部位检测与定位.实验结果表明,相似度拟合图能够体现视频篡改攻击强度和攻击部位,算法表现出更好的篡改检测准确率与定位精确度. 相似文献
6.
搜索引擎的爬行程序在日益庞大的互联网中采集到的网页包含有大量的重复或近似重复网页,这不仅降低了检索效率,增加了存储空间,还降低了最终用户的体验。本文针对现有的网页近似重复检测技术进行了比较,并重点讨论了改进的模糊哈希算法对网页内容进行近似重复检测。 相似文献
7.
8.
面对当今社会的各种海量图像数据,基于图像内容的检索方法对于检索结果的查全率和查准率较为差强人意,并且对于相似图像的检索也会花费较长的时间。为了提升检索效率和检索结果的准确性,提出一种结合深度哈希网络和局部敏感散列的检索推荐方法。首先建立深度哈希网络模型完成对于图像内容特征的提取,并利用球哈希编码优化计算得到汉明空间距离作为特征度量方式,根据度量结果使用局部敏感散列构建索引表提高检索效率;然后对于被检索目标图像进行特性提取,计算汉明空间距离完成特征度量和散列映射,最后可以在索引表中匹配到最相似的若干图像,作为检索到的推荐图像。以泳装版型图像进行实验测试,所构建的推荐模型可以较为快速地完成相似图像的检索,具有较高的准确率。实验结果表明,设计的检索推荐方法基本可以实现相似图像的高效检索。 相似文献
9.
《计算机应用与软件》2016,(1)
针对大规模的视频版权保护中检索准确率低和检索速度慢的问题,提出一种基于球哈希和改进的灰度差算法的视频拷贝检测方法。首先,对传统的灰度差提取关键帧的算法进行改进,提出利用灰度差与灰度差累积量相结合的方法提取关键帧,减少了提取关键帧时产生的累积误差,提高视频检索的准确率;然后,提取关键帧的SIFT特征,并且利用著名的球哈希算法对SIFT特征建立索引,把128维的高维浮点向量变为二值索引,提高检索速度。实验结果表明该方法不仅提高了视频检索的准确率和检索速度,而且保证了较高的查全率。 相似文献
10.
针对视频镜头边界检测的高时耗问题,提出了一种基于视频预处理的视频镜头边界检测(SBD)改进算法。通过使用自适应的阈值选择可能包含镜头边界的候选段,候选段内首帧与其余各帧进行相似度对比检测出镜头起始帧,并立即检测切变。若候选段中不包含切变,则进行渐变检测。调整候选段以保证镜头边界位于同一段内,段内其余各帧与起始帧进行相似度对比确定镜头结束帧。实验结果表明,所提算法镜头边界识别准确率能够达到90%以上,且与倒三角模式匹配方法相比能够节约时间15.6%~30.2%;与对渐变和切变分别检测的算法相比,该算法能够在满足识别率的基础上提升检测速度。 相似文献
11.
This study proposes a robust video hashing for video copy detection.The proposed method,which is based on representative-dispersive frames(R-D frames),can reveal the global and local information of a video.In this method,a video is represented as a graph with frames as vertices.A similarity measure is proposed to calculate the weights between edges.To select R-D frames,the adjacency matrix of the generated graph is constructed,and the adjacency number of each vertex is calculated,and then some vertices that represent the R-D frames of the video are selected.To reveal the temporal and spatial information of the video,all R-D frames are scanned to constitute an image called video tomography image,the fourth-order cumulant of which is calculated to generate a hash sequence that can inherently describe the corresponding video.Experimental results show that the proposed video hashing is resistant to geometric attacks on frames and channel impairments on transmission. 相似文献
12.
针对视频拷贝检测问题,提出了基于拉普拉斯特征映射(Laplacian Eigenmaps,LE)的视频哈希方法,该方法利用视频层析成像技术和服从均匀分布的向量对视频进行镜头分割和关键帧提取,以高阶累计量作为视频在高维空间的特征,并利用LE进行降维,得到视频在三维空间中的轨迹,利用三维空间中点的范数构造视频哈希来实现视频拷贝检测。实验结果表明,该方法具有较好的鲁棒性和区分性。 相似文献
13.
为解决传统的基于k-means聚类的视觉词典法存在检索精度差、时间效率低等问题,提出基于近邻传播学习算法且适用于大规模视频数据集的视觉词典改进生成方法.在此基础上采用局部敏感哈希方法实现视频帧直方图的相似性匹配,采用投票方法完成视频拷贝检测;通过引入LAP (landmark affinity propagation,LAP)算法实现视觉词典的动态扩充.实验结果表明,相比于传统方法,该方法提高了视频拷贝检测精度,对大规模数据集具有更好的扩展性. 相似文献
14.
压缩跟踪在光照发生剧烈变化和目标姿势变化较大时容易出现漂移甚至跟丢现象。针对此缺陷,提出基于局部敏感直方图的压缩跟踪。通过计算局部敏感直方图,提取光照不变特征,联合压缩跟踪中使用的特征得到更优的特征。对不同视频序列的跟踪结果表明,与压缩跟踪和多示例学习跟踪算法相比,提出的算法在目标姿势发生较大变化和光照变化剧烈的情况下能够实现稳定的跟踪,并且满足实时性要求。 相似文献
15.
16.
当前主流的Web图像检索方法仅考虑了视觉特征,没有充分利用Web图像附带的文本信息,并忽略了相关文本中涉及的有价值的语义,从而导致其图像表达能力不强。针对这一问题,提出了一种新的无监督图像哈希方法——基于语义迁移的深度图像哈希(semantic transfer deep visual hashing,STDVH)。该方法首先利用谱聚类挖掘训练文本的语义信息;然后构建深度卷积神经网络将文本语义信息迁移到图像哈希码的学习中;最后在统一框架中训练得到图像的哈希码和哈希函数,在低维汉明空间中完成对大规模Web图像数据的有效检索。通过在Wiki和MIR Flickr这两个公开的Web图像集上进行实验,证明了该方法相比其他先进的哈希算法的优越性。 相似文献
17.
In this paper,we propose a robust perceptual hashing algorithm by using video luminance histogram in shape.The underlying robustness principles are based on three main aspects:1) Since the histogram is independent of position of a pixel,the algorithm is resistant to geometric deformations; 2) the hash is extracted from the spatial Gaussian-filtering low-frequency component for those common video processing operations such as noise corruption,low-pass filtering,lossy compression,etc.; 3) a temporal Gaussian-filtering operation is designed so that the hash is resistant to temporal desynchronization operations,such as frame rate change and dropping.As a result,the hash function is robust to common geometric distortions and video processing operations.Experimental results show that the proposed hashing strategy can provide satisfactory robustness and uniqueness. 相似文献