首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   12篇
  免费   0篇
化学工业   1篇
机械仪表   1篇
建筑科学   1篇
能源动力   1篇
无线电   7篇
一般工业技术   1篇
  2023年   4篇
  2022年   3篇
  2021年   1篇
  2019年   1篇
  2013年   1篇
  2004年   1篇
  2000年   1篇
排序方式: 共有12条查询结果,搜索用时 31 毫秒
1.
熊炜  孙鹏  赵迪  刘粤 《光电子.激光》2023,34(11):1158-1167
自然场景文本识别中采用固定大小的卷积核提取视觉特征,后仅进行字符分类的方法,其全局建模能力弱且忽视了文本语义建模的重要性,因此,本文提出一种基于字符注意力的自然场景文本识别方法。首先构建不同于卷积网络的多级efficient Swin Transformer提取特征,其可使不同窗口的特征进行信息交互;其次设计了字符注意力模块(character attention module, CAM),使网络专注于字符区域的特征,以提取识别度更高的视觉特征;并设计语义推理模块(semantic reasoning module, SRM),根据字符的上下文信息对文本序列进行建模,获得语义特征来纠正不易区分或模糊的字符;最后融合视觉和语义特征,分类得到字符识别结果。实验结果表明,在规则文本数据集IC13上识别准确率达到了95.2%,在不规则的弯曲文本数据集CUTE上达到了85.8%,通过消融及对比实验证明了本文提出的方法可行。  相似文献   
2.
针对DeepLabv3+网络在进行城市街景图像分割任务时,没有充分利用到网络中多层级特征信息,导致分割结果存在大目标有孔洞、边缘目标分割不够精细等不足;并且考虑到城市街景数据具有天然的空间位置特殊性,本文提出在DeepLabv3+网络的基础上引入高度有效驱动注意力机制(height-driven efficient attention model,HEAM)与多层级特征融合模块(multi-stage feature fusion model,MFFM),将HEAM嵌入特征提取网络与空洞空间金字塔池化(atrous spatial pyramid pooling,ASPP)结构中,使其对目标关注更多垂直方向上的空间位置信息;MFFM通过融合多层特征图,在网络中形成多条融合支路依次连接到网络解码端,采用逐次上采样提高解码时像素上的连续性。将改进的网络通过CamVid城市街景数据集验证测试,实验结果表明,该网络能有效改善DeepLabv3+的不足,并且合理运用了数据集的位置先验性,增强了分割效果,在CamVid测试集上平均交并比(mean intersection over union,MIoU)达到了68.2%。  相似文献   
3.
针对当前网络难以应对各种损坏类型的行人图像与易丢失跨维信息的问题,提出了一种损坏图像下基于风格归一化与全局注意力的行人重识别(pedestrain re-identification, ReID)方法。该方法通过平滑极大单元的风格归一化与恢复(smooth maximum unit-style normalization and restitution, SM-SNR)模块中的实例规范化(instance normalization,IN)过滤掉域中的风格变化,同时平滑极大单元(smooth maximum unit, SMU)能使该模块更充分地从删除的信息中提取行人相关特征并将其恢复至网络中,缓解损坏图像带来的风格差异。此外,全局注意力机制(global attention mechanism, GAM)通过关注通道与空间之间的相互作用,以捕获3个维度上的显著行人特征,减少跨维信息的丢失,最终使本模型在面对行人损坏图像时的识别能力得到有效提高,且保留了在干净数据集上的竞争力。实验结果表明,本算法在损坏测试集上的各项指标与目前主流算法对比具有显著的优越性。其中,本模型与2021年的CI...  相似文献   
4.
在日常生活中,存在着丰富的文本信息,对这些信息的提取,能够极大地提高人们的生活品质。但自然场景中文本信息表达形式丰富多样,文本形状各异,在检测过程中存在误检、文本区域定位不准问题。针对以上不足,本文提出了一种具有自校正与注意力机制相结合的文本检测方法。首先,在ResNet50骨干网络中嵌入自校正卷积(self-calibrated convolution, SConv)及高效通道注意力(efficient channel attention, ECA),使网络能够校正全局无关信息的干扰,并集中关注于文本区域,提取更加丰富的语义信息;其次,在特征融合后加入协调注意力(coordinate attention, CA),纠正不同尺度的特征图在融合过程中产生的位置偏差。最后,通过修正后的特征图预测得到多个不同尺度的文本实例,采用渐进尺度扩展算法,求出最终检测到的文本实例。实验结果表明,在任意方向数据集ICDAR2015以及弯曲文本数据集Total-Text、SCUT-CTW1500上,相比于改进前的ResNet50综合指标F值分别提升了1.0%、5.2%、5.4%,证明了本方法具有良好的检测能力。  相似文献   
5.
张军  刘粤  陈坤杰 《包装工程》2019,40(12):140-146
目的 以可穿戴设备人机交互系统与手势交互特点为出发点,研究并提出以情境模型为基础的可穿戴设备手势交互设计的方法,指导可穿戴设备的手势交互设计创新。方法 在情境设计理论研究和相关专业研究上,提取出与手势交互有关的环境情境、用户情境和设备情境等基本要素,以此梳理在可穿戴设备的人机交互过程中所包含的主体与客体因素,并立足用户体验,对可穿戴设备手势交互过程的信息输入与设备输出环节,分别提取手势交互的设计内容,阐述上述3种情境要素与可穿戴设备手势交互设计内容之间的映射关系,以可穿戴设备为目标对象,提出系统性和技术实现性并存,同时可以让用户达到较好使用体验的手势交互设计情境模型。结论 以某移动通信设备企业的手势交互定义项目为例,初步验证了以情境模型为基础的可穿戴设备手势交互设计的方法的有效性。  相似文献   
6.
本文以广州地铁二号线的闭路电视监控系统为列,探讨了闭路电视系统的组成原理,作用和传输方式等,并对未来数字电视监控系统作了展望。  相似文献   
7.
针对杂乱场景下难以有效地提取行人关键信息和局部遮挡时全局特征方法失效的问题,提出了一种双金字塔结构引导的多粒度行人重识别(person re-identification,ReID)方法。首先在ResNet50中嵌入注意力金字塔,引导网络由粗到细依次挖掘不同粒度的特征,使网络更倾向于关注复杂环境中行人的显著区域;其次通过结构不对称的双重注意力特征金字塔分支(double attention feature pyramid branch,DFP branch)提取多尺度的行人特征,丰富特征的多样性,同时双重注意力机制可使分支从浅层信息中捕获高细粒度的局部特征;最后将粒度较粗的全局特征与多层级细粒度的局部特征融合,两种金字塔相互作用,以此获得更多具有鉴别性的多粒度特征,改善行人遮挡问题。在多个数据集上进行了实验,结果表明,各项评价指标均高于目前大多数主流模型,其中在DukeMTMC-reID数据集上,Rank-1、mAP和平均逆负处罚(mean inverse negative penalty,mINP)分别达到了91.6%、81.9%、48.1%。  相似文献   
8.
微博是社会化媒体的重要表现之一,从2009年开始微博成为了社会文化交流、社会动员的重要方式,微博已经深入到了人们生活的各个方面.相对于传统的媒体而言,微博的传播速度更为迅速、报道空间更为广阔,对一些权力腐败、官民冲突、社会问题的揭露更为及时.越来越多的人将微博当作资讯传播的重要途径,通过发帖、转帖、关注等行为进行传播.社会化媒体的出现也给传统的记者行业带来了新的出路,使得记者扮演的社会角色更加的多样化.  相似文献   
9.
本文以工程实例结合国家有关规范,介绍深层搅拌桩、钻孔桩和锚杆的联合支护作为软土基坑支护的设计方法和施工工艺,并根据测试结果和经济分析得出这是较理想的软土基坑支护方案。  相似文献   
10.
针对表面肌电信号(surface electromyography, sEMG)手势识别使用卷积神经网络(convolutional neural network, CNN)提取特征不够充分,且忽略时序信息而导致识别精度不高的问题,本文创新性地提出了一种融合双层注意力与多流卷积神经网络(multi-stream convolutional neural network, MS-CNN)的sEMG手势识别记忆网络模型。首先,利用滑动窗口生成的表面肌电图像作为该模型的输入;然后在MS-CNN中嵌入通道注意力层(channel attention module, CAM),弱化无关信息,使网络能够更加专注sEMG的有效特征;其次,通过长短期记忆网络(long short term memory network, LSTM)对输入的特征进行时序上的激励,关注更多sEMG的时序信息,让网络在时间维度上拥有更强的学习能力;最后,采用时序注意力(time-sequence attention, TSA)层对LSTM的状态进行关注,从而更好地学习重要肌肉信息,提高手势识别精度。在NinaPro数据集上...  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号