排序方式: 共有42条查询结果,搜索用时 78 毫秒
1.
针对现有方法分割弱边缘铸件 CT 图像难度大、精度低、鲁棒性差的问题,提出一种融合残差模块与混合注意力机制的
U 型网络分割算法(AttRes-U-Nets)。 该算法以 U-Net 网络为基础,首先构建深度残差网络 ResNets 作为算法的编码网络,解决
传统 U-Net 网络特征提取能力不足的问题;然后,引入改进后的混合注意力机制,突出分割目标区域与通道的特征响应,提高网
络灵敏度;最后,将 Focal loss 与 Dice loss 结合为一种新损失函数 FD loss 缓解样本不平衡带来的负面影响。 使用 120 阀体数据
集对算法性能进行验证,实验结果表明,本文算法对铸件分割的像素准确率(PA)和交互比( IoU)分别达到 98. 72% 和 97. 40% ,
优于传统 U-Net 算法与其他主流语义分割算法,为弱边缘分割提供了新思路。 相似文献
2.
针对铣床碎屑形状不规则导致图像分割中碎屑轮廓不清晰、分割精度低的问题,本文提出一种改进的DeepLabV3+铣床碎屑分割算法。首先在DeepLabV3+的Xcepetion模块中嵌入通道与空间注意力机制(convolutional block attention module, CBAM)模型,优化通道的权重和位置信息,加强碎屑图像区域的特征学习;其次将DeepLabV3+的空洞空间卷积池化金字塔(atrous spatial pyramid pooling, ASPP)模块改为密集连接(dense conolutional network, DenseNet)方式,增大碎屑图像特征点的感受野,提升铣床碎屑图像特征的复用效率;最后在解码过程中采用多尺度自适应特征融合方法,聚合多尺度特征作为解码器的输入特征,提高碎屑图像分割的精度与鲁棒性。实验结果表明,本文算法优于其他分割算法,改进后算法相比DeepLabV3+,像素准确率提高0.026,平均交并比(mean intersection over union,MIOU)提高0.020,F1值提高了0.013。 相似文献
3.
由于受场景、视角、光照、尺度变化以及局部变形等因素的影响,对重叠目标、拥挤目标、小目标的识别精度较低,提出了一种改进多支路的残差深度卷积神经网络来提高多目标识别的准确度。首先,在第一个卷积残差块layer1后保留恒等映射的同时,增加一个1×1的短接分支尽可能多的保留原始特征;再平行嵌入一个修改激活函数RELU6的空间_通道注意力机制模块(CBAM);最后这三个特征图进行融合。融合后的特征层着重关注空间和通道中比较显著的信息,从而增强特征图的特征表达能力,以至于卷积神经网络(CNN)获得更多的判别特征,从而大大提高物体识别精度。在FashionMNIST和Cifar10两个数据集的对比性实验显示改进的resnet50算法是准确性-速度较为折中的目标识别模型。 相似文献
4.
为了提高红外图像中变压器高压套管的识别准确率,同时能够满足移动端和其他低端设备对目标检测网络的需要,本文提出一种改进的轻量级红外高压套管识别算法,采用Tiny YOLOv3目标检测网络作为基础检测网络。首先,通过融合CBAM(Convolutional Block Attention Module)注意力机制,将通道注意力与空间注意力机制串联,增大目标检测网络感受野,同时减轻网络计算任务,提升网络性能;然后,分别使用GIoU loss和Focal loss替代原有的边界框损失和置信度损失,从而提高对红外图像中的高压套管识别率,减少漏检、误检情况发生。实验结果表明,改进的网络相比于原Tiny YOLOv3网络,mAP提升到96.28%,F1提升到96.25%,权重文件大小为33.9 MB,远小于YOLOv3训练网络,能够更好地适用于低端设备,为智能变电站的在线监测提供了有利条件。 相似文献
5.
验证码识别与设计是目前人工智能领域的挑战性问题,验证码图片内容识别通过强制人机交互来抵御机器自动化攻击的,验证码是否能被批量识别可以用来衡量验证码设计的优劣。目前已经有相对成熟的算法解决这类问题,但是仍然存在天花板有待突破。首先本文对5000张验证码的样本集进行图片预处理,对验证码图片去噪点和切割操作。然后利用添加了注意力模块的卷积神经网络训练样本集,并对另外5000张样本进行预测,测试集的准确率可以达到97.9%。 相似文献
6.
7.
图像描述生成模型是使用自然语言描述图片的内容及其属性之间关系的算法模型.对现有模型描述质量不高、图片重要部分特征提取不足和模型过于复杂的问题进行了研究,提出了一种基于卷积块注意力机制模块(CBAM)的图像描述生成模型.该模型采用编码器-解码器结构,在特征提取网络Inception-v4中加入CBAM,并作为编码器提取图片的重要特征信息,将其送入解码器长短期记忆网络(LSTM)中,生成对应图片的描述语句.采用MSCOCO2014数据集中训练集和验证集进行训练和测试,使用多个评价准则评估模型的准确性.实验结果表明,改进后模型的评价准则得分优于其他模型,其中Model2实验能够更好地提取到图像特征,生成更加准确的描述. 相似文献
8.
《Displays》2021
Pose and low resolution seriously affect the synthesis of high-quality frontal face images. With the development of deep learning, a large number of models based on the deep neural network are used to solve the problem of face pose and image super-resolution. However, the synthesis of the high-resolution frontal face is still a problem that has not been fully studied. Therefore, in this paper, we propose a method to realize image super-resolution and face frontal generation simultaneously. Specifically, we propose a frontal face model FFSR_GAN used to generate super-resolution. This model mainly solves the problem of low resolution and large face pose. There are two main improvements: 1) Aiming at the problem of artifacts in the image generated by the face frontal generation module, the face frontal generation module is designed based on 3DDFA and CBAM; 2) Aiming at the problem of low resolution in frontal face generation, a face super-resolution module is carefully designed, which is used for super-resolution of the generated frontal face. The method proposed in this paper solves the problem of face pose and super-resolution for the first time and improves the recognition accuracy of low-resolution and face images with larger posture. The experimental results on the existing public dataset prove the advantages of the FFSR_GAN model. 相似文献
9.
针对现有冲压件制品缺陷检测方法准确率低的问题,分析深度学习的原理与方法,以VGG13网络为基准模型,通过在特征提取层之后增加CBAM模块进行改进,提出5种基于VGG13与CBAM注意力机制模块相结合的网络模型(VGG13-CBAM),将改进后的新模型与改进前原VGG13模型分别在武汉某制造车间采集的冲压件缺陷数据集上进行实验研究。将数据集以6∶2∶2划分为训练集、验证集、测试集,并使用数据增强进一步扩充训练集,增加模型泛化性能,对比数据增强前后效果的提升。实验结果表明:在改进后的VGG13-CBAM03网络与VGG13-CBAM04网络上效果明显提升,测试集正确率由79.65%分别提高到了81.55%和81.40%,在使用数据增强对训练集进行扩充后,测试集正确率分别达到84.25%和84.15%,有效提升了冲压件缺陷检测准确率。 相似文献
10.
为提高食品图像自动识别分类的准确率,提出一种嵌入通道注意力机制和空间注意力机制的卷积块注意力模块(CBAM)的“开端”第三版(InceptionV3)分类模型。将带有图像网络(ImageNet)预训练权重参数的InceptionV3模型拆分后,在每个Inception块后嵌入CBAM模块,再重新组装成新模型,共嵌入11个CBAM模块。将此模型用于经过填充和缩放到299×299像素的Food-101食品图像数据集进行迁移学习,最高准确率达到82.01%。与原始的InceptionV3模型相比,CBAM模块能够有效提升模型的特征提取和分类能力;同时迁移学习与从头开始训练相比也可以大幅提高准确率、缩短训练时间。与其它几类主流卷积神经网络模型进行对比实验,结果表明该模型具有较高的识别准确率,可为食品图像分类识别提供有力支撑。 相似文献