首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   7篇
  免费   0篇
  国内免费   1篇
无线电   2篇
自动化技术   6篇
  2024年   1篇
  2023年   1篇
  2021年   3篇
  2020年   1篇
  2019年   1篇
  2011年   1篇
排序方式: 共有8条查询结果,搜索用时 15 毫秒
1
1.
探讨卷积神经网络(Convonlutional Neural Network,CNN)在肝包虫病CT图像诊断中的应用。选取两种类型的肝包虫病CT图像进行归一化、改进的中值滤波去噪和数据增强等预处理。以LeNet-5模型为基础提出改进的CNN模型CTLeNet,采用正则化策略减少过拟合问题,加入Dropout层减少参数个数,对二分类肝包虫图像进行分类实验,同时通过反卷积实现特征可视化,挖掘疾病潜在特征。结果表明,CTLeNet模型在分类任务中取得了较好的效果,有望通过深度学习方法对肝包虫病提供辅助诊断和决策支持。  相似文献   
2.
肝包虫病是牧区常见的人畜共患寄生虫病,医疗资源匮乏和医生经验不足等原因往往会影响疾病的早期筛查和诊断。为了实现肝包虫病病灶的精确诊断,文章结合Vue的前端技术开发了肝包虫病医学影像判读仿真平台,可辅助临床医生进行影像学诊断。该平台提供图像采集预处理、图像分割、图像分类和文本报告等模块,向学生展示有别于传统方法的计算机辅助诊断流程,让学生深刻理解深度学习在医学领域的应用流程,从而提升学生解决实际问题的能力。另外,以人工智能辅助肝包虫病早期筛查为例,为医学图像处理实验教学提供了新模式、新途径。  相似文献   
3.
针对人工阅片工作量大、阅片质量不佳且容易出现漏检、错判等问题,将Faster RCNN目标检测模型应用于肝包虫病CT图像的检测,并对目标检测模型进行改进:基于图片分辨率低、病灶大小不同的特点,使用网络深度更深的残差网络(ResNet101)代替原来的VGG16网络,用以提取更丰富的图像特征;根据目标检测模型得出的病灶坐...  相似文献   
4.
后疫情时代,防控常态化.针对高校线上教学实践,文章提出基于人本主义、构建主义、活动理论、成果导向等理论基础的线上教学活动模式,以我校《Python语言程序设计》课程为例从教学理念、教学目标、教学设计、教学组织、师生关系等五个方面来构建以"教师主导——学生主体"的多元化、立体化、创新性智慧云课堂,为线上教育的研究和实践提...  相似文献   
5.
该文以医学图像数据为背景,研究了医学图像挖掘技术,总结了医学图像挖掘的一般过程,并对基于医学图像内容的相似性检索、关联规则挖掘、分类挖掘和时间序列分析等理论和技术进行了探讨和分析。  相似文献   
6.
基于医疗影像的辅助诊断技术正处于快速发展阶段,但是受医学影像数据量的制约,使得基于深度学习的建模方法无法向更复杂的模型进行探索.本文从医学CT影像数据增强方法出发,概述了医疗影像病灶图像的成像特点,针对病灶检测及分割任务对现有方法进行了归类总结,并阐述了当前医学影像检测和分割的难点.分别从病灶检测相关技术、影像数据增强方法、基于生成对抗网络(Generative Adversarial Network,GAN)的病灶检测方法等方面进行了总结.最后,针对医学领域内基于深度学习的数据增强方法:标准GAN、pix2pixGAN、CycleGAN模型进行了对比分析,并展望未来医学影像分析领域的发展趋势.  相似文献   
7.
分析目前高校创新创业教育培养模式,结合本校信管专业人才培养模式的现状,提出"专业+双创"的人才培养模式改革方案,通过在人才培养方案中增加"双创"课程模块,将"双创"理念融入专业教学,依托校企联合平台开展实践教学,为应用型本科专业人才培养模式的研究提供思路。  相似文献   
8.
肝包虫病是严重危害人畜健康的重要人畜共患寄生虫病,超声检查是肝包虫病的首选检查方法,采用深度学习技术能够有效减少人工误差,降低成本并提高诊断效率。以ConvNeXt模型为基础,结合焦点损失函数和Lion优化器,最后引入CBAM构建CLCFNet模型实现肝囊型包虫病早期筛查和精确诊断。在肝囊型包虫病超声影像数据集进行的消融实验表明,对比基准模型分类准确率、精确率、召回率、特异度和F1指数平均提升了4.3%、21%、25%、4%和26%,对比实验也验证了所提出方法各指标优于现有流行方法。改进算法显著降低了模型推理时间,增强了模型训练的稳态性能,可以实现肝囊型包虫病的快速和精准分类识别。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号