首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
由于现有的确定性RFID标签防碰撞算法存在识别效率不高, 数据交换量大等问题, 提出了一种引入部分响应机制的分组式RFID标签防碰撞算法. 算法采用分组策略与部分响应相结合的方式, 读写器按一定次序依次识别每个分组内的标签, 减少了标签碰撞概率和标签识别数量; 对每个分组内的标签采取部分响应机制进行识别, 能有效减少数据通信量. 仿真结果表明, 该算法相比其他几种算法, 具有识别效率高、数据交换量小等优势.  相似文献   

2.
王帅  杨恒新  杨华 《计算机工程》2020,46(4):177-182
树型防碰撞算法在标签数目过多的情况下,由于树的深度过深导致标签识别效率低.为此,提出一种基于伪ID码的树型防碰撞算法.阅读器利用标签数量预测算法,检测出识别范围内未识别标签的大致数量并发给其标签.标签根据数量随机生成一个数字,作为自己的伪ID码.阅读器依次查询伪ID码,若发生碰撞,则利用碰撞跟踪树算法进行识别,在识别标签的过程中通过伪ID码降低查询树的深度,提高标签的识别效率.理论分析和仿真结果表明,与CTT算法和QT算法相比,该算法吞吐率分别提高了15%和74%,并且能够有效加快标签的识别速度,减少时隙总数.  相似文献   

3.
标签冲突在射频识别系统(RFID)中是不可避免的,防碰撞技术是射频识别中解决数据冲突的一个关键技术,防碰撞算法的好坏直接决定了RFID系统识别多个标签的能力。针对以往二进制搜索算法存在标签识别延时过长以及不适用于大量标签存在的情况,提出一种改进的二进制搜索算法。该算法以后退式二进制搜索算法和平衡不完全区组设计BIBD(4,2,1)为研究依据,利用BIBD(4,2,1)的子集作为阅读器的查询命令,通过后退式搜索策略达到快速识别标签的目的。实验结果表明,该算法相对于传统的防碰撞算法有效地提高了标签的识别效率。  相似文献   

4.
为了实现针对数字档案图像的高效分类与高精度识别,提出一套基于定向成对混合的摄影档案图像数据增广方案,运用OPairIM算法对细粒度图像类别加以划分,并通过成对生成方式提取数字图像混合的样本序列和标签序列,并通过各种不同类型的图像数据集对该算法的有效性加以验证,取得了较为理想的图像识别效果。  相似文献   

5.
在现有的动态二进制搜索和后退式二进制搜索标签防冲突算法思想的基础上,将标签进行二次分组,提出了一种基于分组的动态二进制改进算法。通过减小标签搜索范围和动态调整识别标签过程,该算法通过减少标签的搜索次数、阅读器与标签间的数据通信量,提高了识别效率。由仿真结果表明,该算法与其它算法相比在阅读器搜索次数、通信数据量和识别时间上性能均有所提高。  相似文献   

6.
多标签快速识别算法的研究   总被引:1,自引:0,他引:1  
胡乃英  武岳山  熊立志 《计算机仿真》2009,26(6):352-354,362
解决RFID多标签碰撞问题常用的时隙aloha方法效率较低,二进制树方法要求区域内标签数喇不变.以提高aloha法的标签识别效率为目的,分析不同时隙内标签的碰撞个数,构建了标签碰撞的分布数学模型,分析最大时隙利用率,提出了一种多标签快速识别算法.该算法以阅读器发出的Query命令决定的时隙数为一段观察时间,对期间的标签响应状况进行统计分析以便对下一轮识别做出正确的指导,是一种动态帧时隙aloha算法.Msdab仿真结果表明,物流射频识别系统中,算法比时隙aloha算法的识别效率提高近一倍.  相似文献   

7.
为了解决多模态命名实体识别方法中存在的图文语义缺失、多模态表征语义不明确等问题,提出了一种图文语义增强的多模态命名实体识别方法。其中,利用多种预训练模型分别提取文本特征、字符特征、区域视觉特征、图像关键字和视觉标签,以全面描述图文数据的语义信息;采用Transformer和跨模态注意力机制,挖掘图文特征间的互补语义关系,以引导特征融合,从而生成语义补全的文本表征和语义增强的多模态表征;整合边界检测、实体类别检测和命名实体识别任务,构建了多任务标签解码器,该解码器能对输入特征进行细粒度语义解码,以提高预测特征的语义准确性;使用这个解码器对文本表征和多模态表征进行联合解码,以获得全局最优的预测标签。在Twitter-2015和Twitter-2017基准数据集的大量实验结果显示,该方法在平均F1值上分别提升了1.00%和1.41%,表明该模型具有较强的命名实体识别能力。  相似文献   

8.
KNN遗传算法在手写数字识别技术中的应用,对图像、字符等进行识别计算处理,提高了手写数字识别技术的应用性.从手写数字识别技术计算流程、图像处理、数据处理方面,对KNN算法在手写数字识别技术中的应用进行了研究,在KNN算法的基础之上,提出了 Python库调用设计方案,并对Classify()函数和img2vector函数的程序设计代码进行了设计研究.  相似文献   

9.
为了快速准确获得工业锅炉汽包水位实时监测值,采用了基于FPGA的图像预处理和数字识别算法,包括双线性插值、最小的误分类误差阈值分割法、DoG滤波器(高斯差分滤波器)及缝隙码,并提出一种新算法—横竖端点寻线法(HVPL),对采集图像进行畸变校正、分割、提取及数字识别,从而实现了水位计图像数字化.实验结果表明,采用基于逻辑电路的快速算法实现对水位计图像的机器识别具有较好实时性、鲁棒性以及较高识别率.  相似文献   

10.
标签防碰撞技术是射频识别(RFID)系统中提高标签识别效率的关键技术。在对基本二进制搜索算法(BS)的基础上,提出一种结合动态二进制搜索算法(DBS)和后退式二进制搜索算法(BBS)优点的改进算法,并对改进算法进一步优化。仿真结果表明,该算法能减少阅读器问询标签的数据量,有效地提高了标签识别的速度。  相似文献   

11.
Automatic image tagging automatically assigns image with semantic keywords called tags, which significantly facilitates image search and organization. Most of present image tagging approaches are constrained by the training model learned from the training dataset, and moreover they have no exploitation on other type of web resource (e.g., web text documents). In this paper, we proposed a search based image tagging algorithm (CTSTag), in which the result tags are derived from web search result. Specifically, it assigns the query image with a more comprehensive tag set derived from both web images and web text documents. First, a content-based image search technology is used to retrieve a set of visually similar images which are ranked by the semantic consistency values. Then, a set of relevant tags are derived from these top ranked images as the initial tag set. Second, a text-based search is used to retrieve other relevant web resources by using the initial tag set as the query. After the denoising process, the initial tag set is expanded with other tags mined from the text-based search result. Then, an probability flow measure method is proposed to estimate the probabilities of the expanded tags. Finally, all the tags are refined using the Random Walk with Restart (RWR) method and the top ones are assigned to the query images. Experiments on NUS-WIDE dataset show not only the performance of the proposed algorithm but also the advantage of image retrieval and organization based on the result tags.  相似文献   

12.
由于图像数据中普遍存在的“语义鸿沟”问题,传统的基于内容的图像检索技术对于数字图书馆中的图像检索往往力不从心。而图像标注能有效地弥补语义的缺失。文中分析了图像语义标注的现状以及存在的问题,提出了基于语义分类的文物语义标注方法。算法首先通过构建一个Bayes语义分类器对待标注图像进行语义分类,进而通过在语义类内部建立基于统计的标注模型,实现了图像的语义标注。在针对文物图像进行标注的实验中,该方法获得了较好的标注准确率和效率。  相似文献   

13.
14.
一种基于Homogeneity的文本检测新方法   总被引:1,自引:0,他引:1  
视频图像中的文本包含了丰富的语义层次上的内容描述信息,为基于语义的图像检索提供重要的索引信息资源.提出了一种基于Homogeneity和支持向量机(support vector machine)的视频图像中文本检测方法,首先将图像由空间域映射到Homogeneity域中,然后对映射到Homogeneity空间中的图像进行特征提取,利用SVM判别文本区域.实验表明此文本检测方法优于用基于边缘特征的文本检测方法.  相似文献   

15.
网络图像语义自动标注是实现对互联网中海量图像管理和检索的有效途径,而自动有效地挖掘图像语义是实现自动语义标注的关键。网络图像的语义蕴含于图像自身,但更多的在于对图像语义起不同作用的各种描述文本,而且随着图像和描述知识的变化,描述文本所描述的图像语义也随之变化。提出了一种基于领域本体和不同描述文本语义权重的自适应学习的语义自动标注方法,该方法从图像的文本特征出发考查它们对图像语义的影响,先通过本体进行有效的语义快速发现与语义扩展,再利用一种加权回归模型对图像语义在其不同类型描述文本上的分布进行自适应的建模,进而实现对网络图像的语义标注。在真实的Wcb数据环境中进行的实验中,该方法的有效性得到了验证。  相似文献   

16.
由于用户标签的不准确和语义模糊使得协作式标注图像检索正确率低,而现有垃圾标签过滤方法往往关注标签本身,忽略了协作式标签与图像的关联性。本文在分析协作式标注图像视觉内容与标签的关联性的基础上,提出一种基于协作式标注图像视觉内容的垃圾标签检测方法。该方法分析同一标签下图像视觉内容,设计不同的核函数用于颜色和SIFT(Scale invariant feature transform)特征子集,同时将2种低维特征映射到高维多模特征空间形成混合核函数,对同一标签下的图像进行基于混合核的最大最小距离聚类,少数群体的标签说明与图像内容关联性小则为用户标注错误的标签,从而检测垃圾标签。实验结果表明,该方法能够提高协作式图像垃圾标签检测的正确性。  相似文献   

17.
一种基于稀疏典型性相关分析的图像检索方法   总被引:1,自引:0,他引:1  
庄凌  庄越挺  吴江琴  叶振超  吴飞 《软件学报》2012,23(5):1295-1304
图像语义检索的一个关键问题就是要找到图像底层特征与语义之间的关联,由于文本是表达语义的一种有效手段,因此提出通过研究文本与图像两种模态之间关系来构建反映两者间潜在语义关联的有效模型的思路,基于该模型,可使用自然语言形式(文本语句)来表达检索意图,最终检索到相关图像.该模型基于稀疏典型性相关分析(sparse canonical correlation analysis,简称sparse CCA),按照如下步骤训练得到:首先利用隐语义分析方法构造文本语义空间,然后以视觉词袋(bag of visual words)来表达文本所对应的图像,最后通过Sparse CCA算法找到一个语义相关空间,以实现文本语义与图像视觉单词间的映射.使用稀疏的相关性分析方法可以提高模型可解释性和保证检索结果稳定性.实验结果验证了Sparse CCA方法的有效性,同时也证实了所提出的图像语义检索方法的可行性.  相似文献   

18.
图像语义自动标注问题是现阶段一个具有挑战性的难题。在跨媒体相关模型基础上,提出了融合图像类别信息的图像语义标注新方法,并利用关联规则挖掘算法改善标注结果。首先对图像进行低层特征提取,用“视觉词袋”描述图像;然后对图像特征分别进行K-means聚类和基于支持向量机的多类别分类,得到图像相似性关系和类别信息;计算语义标签和图像之间的概率关系,并将图像类别信息作为权重融合到标签的统计概率中,得到候选标注词集;最后以候选标注词概率为依据,利用改善的关联规则挖掘算法挖掘文本关联度,并对候选标注词集进行等频离散化处理,从而得到最终标注结果。在图像集Corel上进行的标注实验取得了较为理想的标注结果。  相似文献   

19.
Semantic gap has become a bottleneck of content-based image retrieval in recent years. In order to bridge the gap and improve the retrieval performance, automatic image annotation has emerged as a crucial problem. In this paper, a hybrid approach is proposed to learn the semantic concepts of images automatically. Firstly, we present continuous probabilistic latent semantic analysis (PLSA) and derive its corresponding Expectation–Maximization (EM) algorithm. Continuous PLSA assumes that elements are sampled from a multivariate Gaussian distribution given a latent aspect, instead of a multinomial one in traditional PLSA. Furthermore, we propose a hybrid framework which employs continuous PLSA to model visual features of images in generative learning stage and uses ensembles of classifier chains to classify the multi-label data in discriminative learning stage. Therefore, the framework can learn the correlations between features as well as the correlations between words. Since the hybrid approach combines the advantages of generative and discriminative learning, it can predict semantic annotation precisely for unseen images. Finally, we conduct the experiments on three baseline datasets and the results show that our approach outperforms many state-of-the-art approaches.  相似文献   

20.
Chen  Yuantao  Liu  Linwu  Tao  Jiajun  Chen  Xi  Xia  Runlong  Zhang  Qian  Xiong  Jie  Yang  Kai  Xie  Jingbo 《Multimedia Tools and Applications》2021,80(3):4237-4261

The automatic image annotation is an effective computer operation that predicts the annotation of an unknown image by automatically learning potential relationships between the semantic concept space and the visual feature space in the annotation image dataset. Usually, the auto-labeling image includes the processing: learning processing and labeling processing. Existing image annotation methods that employ convolutional features of deep learning methods have a number of limitations, including complex training and high space/time expenses associated with the image annotation procedure. Accordingly, this paper proposes an innovative method in which the visual features of the image are presented by the intermediate layer features of deep learning, while semantic concepts are represented by mean vectors of positive samples. Firstly, the convolutional result is directly output in the form of low-level visual features through the mid-level of the pre-trained deep learning model, with the image being represented by sparse coding. Secondly, the positive mean vector method is used to construct visual feature vectors for each text vocabulary item, so that a visual feature vector database is created. Finally, the visual feature vector similarity between the testing image and all text vocabulary is calculated, and the vocabulary with the largest similarity used for annotation. Experiments on the datasets demonstrate the effectiveness of the proposed method; in terms of F1 score, the proposed method’s performance on the Corel5k dataset and IAPR TC-12 dataset is superior to that of MBRM, JEC-AF, JEC-DF, and 2PKNN with end-to-end deep features.

  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号