排序方式: 共有17条查询结果,搜索用时 15 毫秒
1.
针对前列腺磁共振 (magnetic resonance, MR)图像边缘模糊、对比度较低,灰度值分布不均衡而导致分割精度较差的问题,提出了一种结合双路径注意力(dual path attention,DPA) 和多尺度特征聚合(multi-scale feature aggregation,MFA) 模块的改进3D UNet网络模型。首先,对数据集进行重采样和裁剪处理以适应模型输入。然后,在3D UNet网络的编码器各层引入DPA 并添加残差连接,加强特征的 编码能力。同时,在网络解码器中加入MFA模块,以充分利用空间上下文信息,增强语义信息。最后,在公开数据集PROMISE12上进行验证,所提出的模型的Dice系数为89.90%,Hausdorff 距离为9.37 mm。相比较于其他模型,所提出模型的分割结果更优,且参数量和运算量更少。 相似文献
2.
为了有效的管理终端设备,通过分析DHCP(Dynamic Host Configuration Protocol)的动态配置过程和报文内容,提出了一个DHCP环境下对终端设备按照类别标识进行分类的方法。实验证明,该方法是有效的。 相似文献
3.
4.
5.
交通信号灯倒计时数字的快速检测和准确识别可以提高驾驶的安全性,减少交通事故的发生.针对目标检测算法在交通信号灯倒计时数字检测与识别中准确率较低、漏检率较高的问题,提出一种基于改进YOLOv4的交通信号灯倒计时数字检测与识别算法.首先将YOLOv4的主干网络CSPDarkNet53替换为CSPResNet50vd,并将C... 相似文献
6.
邵叶秦 《数字社区&智能家居》2007,3(14):455-456
提出了一个有效的C 内存泄漏检测方法.方法在分析内存泄漏的基础上,通过重新实现动态内存分配和释放函数,记录内存分配的确切位置并跟踪动态内存的使用情况.在程序结束时,方法利用跟踪结果检测和定位内存泄漏.最后,通过在Windows和Linux平台上的实验验证了本文方法的有效性. 相似文献
7.
Kerberos协议是一个被广泛采用的、基于可信任第三方提供安全认证服务的网络认证协议。利用共享的会话密钥,Kerberos协议保证了通信的机密性和完整性。描述了Kerberos5协议最新版本的基本原理,介绍了协议的详细过程,通过对比前一版本,分析了其改进之处和仍存在的不足。 相似文献
8.
邵叶秦 《数字社区&智能家居》2014,(12):8119-8121
为了从大量的电子邮件中检测垃圾邮件,提出了一个基于Hadoop平台的电子邮件分类方法。不同于传统的基于内容的垃圾邮件检测,通过在Map Reduce框架上统计分析邮件收发记录,提取邮件账号的行为特征。然后使用Map Reduce框架并行的实现随机森林分类器,并基于带有行为特征的样本训练分类器和分类邮件。实验结果表明,基于Hadoop平台的电子邮件分类方法大大提高了大规模电子邮件的分类效率。 相似文献
9.
近年来, 人工智能在各个领域有着广泛的应用. 针对超市及菜市场人工称重操作耗时、计价流程繁杂的问题, 本文提出一种基于注意力YOLOv5模型的水果自动识别算法. 首先, 为了提升仅有局部特征不同, 全局特征相似水果的识别准确率, 本文在YOLOv5的SPP (spatial pyramid pooling)层后增加SENet (squeeze-and-excitation networks), 采用注意力机制自动学习每个特征通道的重要程度, 进而按照重要程度强化对水果识别任务有用的特征并抑制没有用的特征; 其次, 针对水果识别预测框与目标框重叠时, GIOU不能准确表达边框重合关系问题, 本文将原有的边框回归损失函数GIOU替换为CIOU, 同时考虑目标框与预测框的高宽比和中心点之间的关系, 从而使水果预测框更加接近真实框, 提升预测精度. 实验结果表明, 改进后的模型在常见场景下水果识别能力有明显提升, 平均精度mAP达99.10%, 识别速度FPS达到82, 能够满足实际应用需要. 相似文献
10.
虽然多尺度感受野特征融合能显著提升目标检测模型的精度,但同时也大大增加了模型的运算成本。针对这一问题,本文提出了基于结构重参数化的目标检测模型。首先,使用深度卷积代替SPP中的最大池化,并利用结构重参数化降低模块运算量,提出了新的感受野特征融合模块CspRepSPP。接着,基于结构重参数化技术,提出了新的特征提取模块RepBottleNeck。实验结果表明,在VOC 2012数据集上,相比原模型YOLOv5s,本文模型在mAP05:095指标上提升了322%,单张图片的推理速度提升了05 ms,GFLOPs降低了10。与其他YOLOv5s改进算法相比,本文算法检测精度更高,推理速度更快,参数量更低。 相似文献