首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 171 毫秒
1.
基于高维肺部计算机断层扫描(CT)图像的肺结节检测是一项极具挑战性的任务。在诸多肺结节检测算法中,深度卷积神经网络(CNN)最引人注目,其中二维(2D) CNN具有预训练模型多、检测效率高等优点,应用非常广泛,但肺结节本质是三维(3D)病灶,2D CNN会不可避免地造成信息损失,从而影响检测精度。3D CNN能充分利用CT图像空间信息,有效提升检测精度,但是3D CNN存在参数多、计算消耗大、过拟合风险高等不足。为了兼顾两者的优势,提出基于深度混合CNN的肺结节检测模型,通过在神经网络模型的浅层部署3D CNN,在模型的深层部署2D CNN,并增加反卷积模块,融合了多层级的图像特征,达到了在不损失检测精度的情况下减少模型参数、增强模型泛化能力,提高检测效率的目的。在LUNA16数据集上的实验结果表明,所提出的模型在平均每次扫描8个假阳性的情况下的敏感度为0.924,优于现有的先进模型。  相似文献   

2.
计算机断层扫描影像中良、恶性肺结节的准确分类对肺癌的预防和治疗至关重要。然而,由于计算机断层扫描影像中肺结节背景的复杂性,以及良、恶性肺结节判定之间存在的不确定性,使得良恶性肺结节的准确分类成为了一项极具挑战性的工作。提出了一种深度三维多尺度交叉融合卷积神经网络实现了良恶性肺结节的精确分类。使用密集连接结构自动提取肺结节多尺度特征,为了减少特征提取过程中肺结节相关信息的丢失,对多尺度特征引入了交叉融合策略得到多尺度特征组,增强了高、低层次语义信息的表达能力,同时增强特征在网络中的传递和转移。将提取的特征组分别连接至多个softmax分类器,模拟多位经验不同医生共同决策,实现了良、恶性肺结节的精确识别。使用肺图像联合会数据集进行验证,分类准确率达到了90.96%,AUC为94.95%。  相似文献   

3.
基于高维肺部计算机断层扫描(CT)图像的肺结节检测是一项极具挑战性的任务。在诸多肺结节检测算法中,深度卷积神经网络(CNN)最引人注目,其中二维(2D) CNN具有预训练模型多、检测效率高等优点,应用非常广泛,但肺结节本质是三维(3D)病灶,2D CNN会不可避免地造成信息损失,从而影响检测精度。3D CNN能充分利用CT图像空间信息,有效提升检测精度,但是3D CNN存在参数多、计算消耗大、过拟合风险高等不足。为了兼顾两者的优势,提出基于深度混合CNN的肺结节检测模型,通过在神经网络模型的浅层部署3D CNN,在模型的深层部署2D CNN,并增加反卷积模块,融合了多层级的图像特征,达到了在不损失检测精度的情况下减少模型参数、增强模型泛化能力,提高检测效率的目的。在LUNA16数据集上的实验结果表明,所提出的模型在平均每次扫描8个假阳性的情况下的敏感度为0.924,优于现有的先进模型。  相似文献   

4.
针对传统的人工特征选取需要耗费大量时间和精力的问题,本文在传统卷积神经网络(convolutional neural networks,CNN)模型的基础上,提出了一种基于多尺度卷积核CNN的特征提取与分类方法,并在脑电情绪识别分类上进行了验证.本文首先进行了通道选择方面的研究,其次使用多尺度卷积核CNN模型对提取了微分熵(differential entropy feature,DE)特征的脑电数据进行情绪三分类实验,相比于传统的CNN模型,多尺度卷积核CNN模型在卷积层中采用多个尺度的卷积核,同时从高维度与低维度对脑电信号进行二次特征提取.实验结果表明,预处理数据在33通道的情绪分类平均准确率为89.72%,几乎接近全通道的平均准确率;多尺度卷积核CNN在微分熵特征上的情绪三分类取得了98.19%的平均分类准确率,实验结果证明了该模型的有效性和鲁棒性.  相似文献   

5.
针对CT图像肺结节分类任务中分类精度低,假阳性高的问题,提出了一种加权融合多维度卷积神经网络的肺结节分类模型,该模型包含两个子模型:基于二维图像的多尺度密集卷积网络模型,以捕获更宽泛的结节变化特征并促进特征重用;基于三维图像的三维卷积神经网络模型,以充分利用结节空间上下文信息。使用二维和三维CT图像训练子模型,根据子模型分类误差计算其权重,对子模型分类结果进行加权融合,得到最终分类结果。该模型在公共数据集LIDC-IDRI上分类准确率达到94.25%,AUC值达到98%。实验结果表明,加权融合多维度模型可以有效地提升肺结节分类性能。  相似文献   

6.
基于多尺度分块卷积神经网络的图像目标识别算法   总被引:1,自引:0,他引:1  
针对图像在平移、旋转或局部形变等复杂情况下的识别问题,提出一种基于非监督预训练和多尺度分块的卷积神经网络(CNN)目标识别算法。算法首先利用不含标签的图像训练一个稀疏自动编码器,得到符合数据集特性、有较好初始值的滤波器集合。为了增强鲁棒性,同时减小下采样对特征提取的影响,提出一种多通路结构的卷积神经网络,对输入图像进行多尺度分块形成多个通路,每个通路与相应尺寸的滤波器卷积,不同通路的特征经过局部对比度标准化和下采样后在全连接层进行融合,从而形成最终用于图像分类的特征,将特征输入分类器完成图像目标识别。仿真实验中,所提算法对STL-10数据集和遥感飞机图像的识别率较传统的CNN均有提高,并对图像各种形变具有较好的鲁棒性。  相似文献   

7.
邱津怡  罗俊  李秀  贾伟  倪福川  冯慧 《计算机应用》2019,39(10):2930-2936
葡萄品种质量检测需要识别多类别的葡萄,而葡萄图片中存在多种景深变化、多串等多种场景,单一预处理方法存在局限导致葡萄识别的效果不佳。实验的研究对象是大棚中采集的15个类别的自然场景葡萄图像,并建立相应图像数据集Vitis-15。针对葡萄图像中同一类别的差异较大而不同类别的差异较小的问题,提出一种基于卷积神经网络(CNN)的多尺度葡萄图像识别方法。首先,对Vitis-15数据集中的数据通过三种方法进行预处理:旋转图像的数据扩增方法、中心裁剪的多尺度图像方法以及前两种方法的数据融合方法;然后,采用迁移学习方法和卷积神经网络方法来进行分类识别,迁移学习选取ImageNet上预训练的Inception V3网络模型,卷积神经网络采用AlexNet、ResNet、Inception V3这三类模型;最后,提出适合Vitis-15的多尺度图像数据融合的分类模型MS-EAlexNet。实验结果表明,在同样的学习率和同样的测试集上,数据融合方法在MS-EAlexNet上的测试准确率达到了99.92%,相较扩增和多尺度图像方法提升了近1个百分点,并且所提方法在分类小样本数据集上具有较高的效率。  相似文献   

8.
为了充分挖掘服装图像从全局到局部的多级尺度特征,同时发挥深度学习与传统特征各自在提取服装图像深层语义特征和底层特征上的优势,从而实现聚焦服装本身与服装全面特征的提取,提出基于多特征融合的多尺度服装图像精准化检索算法.首先,为了不同类型特征的有效融合,本文设计了基于特征相似性的融合公式FSF(Feature Similarity Fusion).其次,基于YOLOv3模型同时提取服装全局、主体和款式部件区域构成三级尺度图像,极大减弱背景等干扰因素的影响,聚焦服装本身.之后全局、主体和款式部件三级尺度图像分别送入三路卷积神经网络(Convolutional Neural Network,CNN)进行特征提取,每路CNN均依次进行过服装款式属性分类训练和度量学习训练,分别提高了CNN对服装款式属性特征的提取能力,以及对不同服装图像特征的辨识能力.提取的三路CNN特征使用FSF公式进行特征融合,得到的多尺度CNN融合特征则包含了服装图像从全局到主体,再到款式部件的全面特征.然后,加入款式属性预测优化特征间欧氏距离,同时抑制语义漂移,得到初步检索结果.最后,由于底层特征可以很好的对CNN提取的深层语义特征进行补充,故引入传统特征对初步检索结果的纹理、颜色等特征进行约束,通过FSF公式将多尺度CNN融合特征与传统特征相结合,进一步优化初步检索结果的排序.实验结果表明,该算法可以实现对服装从全局到款式部件区域多尺度CNN特征的充分提取,同时结合传统特征有效优化排序结果,提升检索准确率.在返回Top-20的实验中,相比于FashionNet模型准确率提升了16.4%."  相似文献   

9.
针对SAR图像中小型舰船分类准确率较低的问题,提出一种多卷积神经网络加权融合的方法。首先构建高分辨率卷积神经网络对特征图进行多尺度融合,引入微调模型和标签平滑减少训练过拟合的问题;然后利用高分辨网络、MobileNetv2网络和SqueezeNet网络训练3种单分类模型;最后采用加权投票方式对3种分类模型的结果进行融合。采用融合算法对GF-3号舰船数据集进行分类实验,取得94.83%的准确率、95.43%的召回率和0.9513的F1分数的分类性能。实验结果表明,该舰船分类算法模型具有较优的分类能力,验证了其在高分辨率SAR图像舰船分类上的有效性。  相似文献   

10.
邓忠豪  陈晓东 《计算机应用》2019,39(7):2109-2115
在传统的肺结节检测算法中,存在检测敏感度低,假阳性数量大的问题。针对这一问题,提出了基于深度卷积神经网络(CNN)的肺结节检测算法。首先,有目的性地简化传统的全卷积分割网络;然后,创新地加入对部分CNN层的深监督并使用改进的加权损失函数,获得高质量的候选肺结节,保证高敏感度;其次,设计了基于多尺度上下文信息的三维深度CNN来增强对图像的特征提取;最后,将训练得到的融合分类模型用于候选结节分类,以达到降低假阳率的目的。所提算法使用了LUNA16数据集,并通过对比实验验证算法的性能。在检测阶段,当每个CT检测出的候选结节数为50.2时,获得的敏感度为94.3%,与传统的全卷积分割网络相比提升了4.2个百分点;在分类阶段,竞争性能指标达到0.874。实验结果表明,所提算法能够有效提高检测敏感度和降低假阳率。  相似文献   

11.
通过肺部CT影像进行肺结节检测是肺癌早期筛查的重要手段,而候选结节的假阳性筛查是结节检测的关键部分.传统的结节检测方法严重依赖先验知识,流程繁琐,性能并不理想.在深度学习中,卷积神经网络可以在通用的学习过程中提取图像的特征.该文以密集神经网络为基础设计了一个三维结节假阳性筛查模型—三维卷积神经网络模型(TDN-CNN)...  相似文献   

12.
目的 肺结节检测在低剂量肺部计算机断层扫描(computed tomography,CT)筛查肺癌中具有重要意义。但由于结节大小、形状和密度的变化十分复杂,导致难以在低假阳性率下保证高的灵敏度,这限制了深度学习算法在常规临床实践中的肺结节自动诊断,建立具有良好结节检测性能的深度学习模型仍然是一个挑战。针对此问题,本文提出了一种基于3D ReSidual U (3D RSU)块的嵌套U结构的肺结节检测框架。方法 3D RSU块通过混合不同大小的感受场获得多尺度特征来丰富特征信息。而嵌套U结构允许网络获得更大分辨率的特征图,从而具有多层次深度特征,获得丰富的局部和全局信息,增强网络区分前景和背景的能力,进而提高微小结节等非显著性目标的检测性能。结果 该框架在公共肺结节(lung nodule analysis 16)挑战数据集上进行了评价。方法能够准确地检测出肺结节,灵敏度达到了97.2%,与基准方法相比,该方法灵敏度提高了2.6%,具有很高的灵敏度和特异性,在0.125、0.25、0.5、1、2、4、8共7个假阳率点的灵敏度平均值为86.4%,尤其是在每扫描0.25个假阳性上,灵敏度达到80.9%,优于基准算法76.9%的结果。结论 本文所提出的结节检测模型,由于在低假阳率上有较高的灵敏度,可以使本网络在常规临床实践中为医生辅助诊断提供更加可靠清晰的早期肺癌参考信息。  相似文献   

13.
目的 多部位病灶具有大小各异和类型多样的特点,对其准确检测和分割具有一定的难度。为此,本文设计了一种2.5D深度卷积神经网络模型,实现对多种病灶类型的计算机断层扫描(computed tomography,CT)图像的病灶检测与分割。方法 利用密集卷积网络和双向特征金字塔网络组成的骨干网络提取图像中的多尺度和多维度信息,输入为带有标注的中央切片和提供空间信息的相邻切片共同组合而成的CT切片组。将融合空间信息的特征图送入区域建议网络并生成候选区域样本,再由多阈值级联网络组成的Cascade R-CNN(region convolutional neural networks)筛选高质量样本送入检测与分割分支进行训练。结果 本文模型在DeepLesion数据集上进行验证。结果表明,在测试集上的平均检测精度为83.15%,分割预测结果与真实标签的端点平均距离误差为1.27 mm,直径平均误差为1.69 mm,分割性能优于MULAN(multitask universal lesion analysis network for joint lesion detection,tagging and segmentation)和Auto RECIST(response evaluation criteria in solid tumors),且推断每幅图像平均时间花费仅91.7 ms。结论 对于多种部位的CT图像,本文模型取得良好的检测与分割性能,并且预测时间花费较少,适用病变类别与DeepLesion数据集类似的CT图像实现病灶检测与分割。本文模型在一定程度上能满足医疗人员利用计算机分析多部位CT图像的需求。  相似文献   

14.
Pixel-based convolutional neural network (CNN) has demonstrated good performance in the classification of very high resolution images (VHRI) from which abstract deep features are extracted. However, conventional pixel-based CNN demands large resources in terms of processing time and disk space. Therefore, superpixel CNN classification has recently become a focus of attention. We therefore propose a CNN based deep learning method combining superpixels extracted via energy-driven sampling (SEEDS) for VHRI classification. The approach consists of three main steps. First, based on the concept of geographic object-based image analysis (GEOBIA), the image is segmented into homogeneous superpixels using the SEEDS based superpixel segmentation method thereby decreasing the number of processing units. Second, the training data and testing data are extracted from the image and concatenated on a superpixel level at a variety of scales for CNN. Third, the training data are input to train the parameters of CNN and abstract deep features are extracted from the VHRI. Using these extracted deep features, we classify two VHRI data sets at single scales and multiple scales. To verify the effectiveness of SEEDS based CNN classification, the performance of SEEDS and three others superpixel segmentation algorithms are compared, and the superpixel extraction via SEEDS method was found to be the optimal superpixel segmentation approach for CNN classification. The scale effect on CNN classification accuracy was investigated by comparing the four superpixel segmentation methods. We found that (1) There is no strong evidence that using scales combinations is better than a single scale in some specific situations; (2) Natural objects with low complexity are not as sensitive to scale as artificial objects; (3) For a simple VHRI that contains clear artificial objects and simple texture, the classification result with multiple scales performs better a the single scale; (4) In contrast, for the complex VHRI containing a large number of complex objects, the classification result with a single small-scale best.  相似文献   

15.
Lung nodule classification is one of the main topics related to computer-aided detection systems. Although convolutional neural networks (CNNs) have been demonstrated to perform well on many tasks, there are few explorations of their use for classifying lung nodules in chest X-ray (CXR) images. In this work, we proposed and analyzed a pipeline for detecting lung nodules in CXR images that includes lung area segmentation, potential nodule localization, and nodule candidate classification. We presented a method for classifying nodule candidates with a CNN trained from the scratch. The effectiveness of our method relies on the selection of data augmentation parameters, the design of a specialized CNN architecture, the use of dropout regularization on the network, inclusive in convolutional layers, and addressing the lack of nodule samples compared to background samples balancing mini-batches on each stochastic gradient descent iteration. All model selection decisions were taken using a CXR subset of the Lung Image Database Consortium and Image Database Resource Initiative dataset separately. Thus, we used all images with nodules in the Japanese Society of Radiological Technology dataset for evaluation. Our experiments showed that CNNs were capable of achieving competitive results when compared to state-of-the-art methods. Our proposal obtained an area under the free-response receiver operating characteristic curve of 7.76 considering 10 false positives per image (FPPI), and sensitivity values of 73.1% and 79.6% with 2 and 5 FPPI, respectively.  相似文献   

16.
现有的2D图像质量评价方法并不能很好地应用于立体图像质量评价中。为了有效评价不同失真立体图像的质量,提出了一种基于视差图和复数轮廓波变换的无参考图像质量评价方法。首先提取了能够反映3D信息的视差图,然后对左右失真图像和视差图进行复数轮廓波变换,计算能量和能量差特征,最后通过支持向量回归SVR模型训练学习,预测图像质量分数。实验结果表明,此方法优于当前文献报道的立体图像质量评价方法。  相似文献   

17.
为解决低剂量CT(Low-Dose Computed Tomography,LDCT)图像中的噪声/伪影问题,提出一种基于非下采样Shearlet变换(Non-Sample Shearlet Transformation,NSST)的卷积神经网络(Convolution Neural Network,CNN)的NSST-CNN模型。训练时,对数据集中的常规剂量CT(Normal-Dose Computed Tomography,NDCT)和LDCT图像做NSST分解,将LDCT图像的高频子图作为输入,LDCT和NDCT图像的高频子图的残差图像作为标签,通过CNN训练,学习LDCT高频子图和高频残差子图的映射关系;测试时,将LDCT图像的高频子图减去利用映射关系预测的主要包括噪声/伪影的高频子图,然后做NSST反变换得到高质量的LDCT图像。实验结果表明,与KSVD、BM3D以及图像域CNN方法相比,NSST-CNN模型得到的结果具有更高的峰值信噪比和结构相似度,更接近NDCT图像。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号