首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 218 毫秒
1.
巩萍  程玉虎  王雪松 《电子学报》2015,43(12):2476-2483
现有肺结节良恶性计算机辅助诊断的依据通常为肺部CT图像的底层特征,而临床医生的诊断依据为高级语义特征.为克服这种图像底层特征和高级语义特征之间的不一致性,提出一种基于语义属性的肺结节良恶性判别方法.首先,利用阈值概率图方法提取肺结节图像;其次,一方面提取肺结节图像的形状、灰度、纹理、大小和位置等底层特征,组成样本特征集.另一方面,根据专家对肺结节属性的标注,提取结节属性集;然后,根据特征集和属性集建立属性预测模型,实现两者之间的映射;最后,利用预测的属性进行肺结节的良恶性分类.LIDC数据库上的实验结果表明所提方法具有较高的分类精度和AUC值.  相似文献   

2.
陈胜  李莉 《电子学报》2010,38(5):1211-1216
针对目前基于胸片肺结节计算机辅助检测系统的检出率低,且检测结果有大量假阳性的问题,提出一种全新检测方案.该方案首先引入基于活动形状模型的算法分割肺区,在肺区中选取大量可疑结节,然后为每个可疑结节提取基于分割结果的27个特征,最后引入线性分类器对可疑结节进行分类,给出最终检测结果.方案中,由于两步结节增强技术的引入,使得只有少量真实结节在可疑结节选取过程中丢失.特征提取时,引入分水岭算法分割可疑结节,基于分割结果提取能够有效区分可疑结节中真实结节和假结节的形状特征、灰度统计特征、曲面特征和梯度特征等,并利用可疑结节分割结果与感兴趣区域中Canny算子边缘检测结果的相关性来降低假阳性.本文选择日本放射技术学会提供的公共数据库测试系统的肺结节检测性能,系统在平均每幅图4.5个假阳性水平下检测出72.2%的结节.对非常不明显和极其不明显结节,系统的检测性能在4.5个假阳性水平下达到了52.7%.  相似文献   

3.
贾同  魏颖  赵大哲 《电子学报》2010,38(11):2545-2549
 肺癌病灶的检测一直是重要与困难的工作,本文提出了一种基于三维CT影像的肺结节计算机辅助检测新方法.基于自适应阈值等方法分割肺实质区域;由于肺血管是肺结节检测的重要干扰,建立一种形变模型精确分割并过滤肺内血管组织;基于Hessian矩阵特征值构造可选择形状滤波器检测疑似结节,并进一步过滤剩余的细小血管组织;提取多个结节特征,并采用基于规则分类器进行分类.实验结果表明,该方法可以有效帮助医生提高肺癌疾病的诊断准确率.  相似文献   

4.
CT图像肺结节大小、形状和纹理的多样性,导致肺结节的良恶性诊断十分困难。在三维卷积神经网络的基础上,提出了一种基于多深度残差注意力机制的网络(MDRA-net),用于良恶性肺结节分类。MDRA-net通过在残差分支上使用特征融合及迭代分层融合的方法,提升了网络对结节位置特征及全局特征的感知能力;此外,结合注意力机制,引入projection and excitation模块,利用空间和通道信息进行校准,进一步提升了网络提取特征的能力。在LUNA16数据集上的实验结果表明,MDRA-net分类模型的肺结节检测准确率达96.52%,灵敏度和特异性分别为93.01%和97.77%,较现有的基于深度学习的肺结节良恶性分类模型有较大提升。  相似文献   

5.
针对CT图像中肺结节因边缘模糊、特征不明显造成的分类效果有偏差的问题,本文提出一种嵌入注意力机制的多模型融合方法(简称MSMA-Net)。该方法先将原始CT图像进行肺实质分割和裁剪操作后得到两种不同尺寸的图像,然后分别输入到空间注意力模型和通道注意力模型进行训练,其中,空间注意力模型着重于提取肺结节在CT图像中的空间位置信息,通道注意力模型着重于提取肺结节的细节特征。最后将两个模型提取的特征进行融合,用于得出良恶性分类结果。经过大量实验表明,这种多模型融合方法能很好地提取到肺结节在CT图像中的位置信息和自身的边缘特征,在LIDC数据集的基础上,该方法在准确率,敏感性,特异性分别达到了96.28%,96.72%,96.17%,相较于传统的网络模型取得了更好的分类效果。  相似文献   

6.
为了提高肺结节恶性度分级的计算精度及可解释性,该文提出一种基于CT征象量化分析的肺结节恶性度分级方法.首先,融合影像组学特征和通过卷积神经网络提取的高阶特征构造分析CT征象所需的特征集; 接着,在混合特征集的基础上利用进化搜索机制优化集成学习分类器,实现对7种肺结节征象的识别和量化打分; 最后,将7种CT征象的量化打分输入到一个利用差分进化算法优化产生的多分类器,实现肺结节恶性度的分级计算.在实验研究中使用LIDC-IDRI数据集中的2000个肺结节样本进行进化集成学习器和恶性度分级器的训练和测试.实验结果显示对7种CT征象的识别准确率可达0.9642以上,肺结节恶性度分级的准确率为0.8618,精确率为0.8678,召回率为0.8617,F1指标为0.8627.与多个典型算法的比较显示,该文方法不但具有较高的准确率,而且可对相关CT征象进行量化分析,使得对恶性度的分级结果更具可解释性.  相似文献   

7.
针对目前的无监督学习方法在单目图像深度估计中存在深度估计不准确、边缘模糊的问题,提出了一种融合多尺度特征信息和语义信息的无监督单目深度估计网络.该网络不仅引入了从编码器到解码器的跳层连接来实现不同尺度特征的提取和融合,还在编码器和解码器之间引入多个空洞卷积并行的语义层来增加感受野,使得结果更加准确.最后在KITTI数据...  相似文献   

8.
临床上肺结节的评估往往需要综合临床信息和影像特征进行判断,不同类型的结节的肺癌概率和判定标准也不尽相同,文章基于LIDC-IDRI数据集和额外的人工标注,提出了一种肺结节多分类的方法,利用多分类卷积神经网络,对预处理之后的CT数据进行肺结节的四分类,得到的分类结果更注重对临床医生的可理解的特征分类进行判断。实验表明,该方法取得了良好的效果,四种分类的准确性都在92%以上。该方法可以给医生提供一个可靠的结节分类效果,便于后续的肺结节评估。  相似文献   

9.
张俊杰  周涛  夏勇  王文文 《电视技术》2016,40(3):130-137
以肺结节的检测为研究目标,针对肺结节特征级融合检测算法中存在特征结构不合理和特征表达不紧致两个问题,提出了一种基于粗糙集特征级融合的肺结节检测算法,该算法首先分析肺部CT影像的医学征象,提出了六个新的三维特征,并综合其他二维和三维特征共42维特征分量共同量化ROI;然后基于粗糙集对提取的特征集合进行5次特征级融合实验;最后利用网格寻优算法优化核函数的SVM作为分类器进行肺结节识别.以70例肺结节患者的肺部CT影像为原始数据,通过4组对比实验验证算法的有效性和稳定性,实验结果表明,经过粗糙集特征级融合的肺结节检测算法识别肺结节的能力得到了有效提升.  相似文献   

10.
为了提高肺结节恶性度分级的计算精度及可解释性,该文提出一种基于CT征象量化分析的肺结节恶性度分级方法。首先,融合影像组学特征和通过卷积神经网络提取的高阶特征构造分析CT征象所需的特征集; 接着,在混合特征集的基础上利用进化搜索机制优化集成学习分类器,实现对7种肺结节征象的识别和量化打分; 最后,将7种CT征象的量化打分输入到一个利用差分进化算法优化产生的多分类器,实现肺结节恶性度的分级计算。在实验研究中使用LIDC-IDRI数据集中的2000个肺结节样本进行进化集成学习器和恶性度分级器的训练和测试。实验结果显示对7种CT征象的识别准确率可达0.9642以上,肺结节恶性度分级的准确率为0.8618,精确率为0.8678,召回率为0.8617,F1指标为0.8627。与多个典型算法的比较显示,该文方法不但具有较高的准确率,而且可对相关CT征象进行量化分析,使得对恶性度的分级结果更具可解释性。  相似文献   

11.
查宇飞  吴敏  库涛  陈兵  张园强 《电子学报》2019,47(10):2076-2082
视觉目标跟踪旨在寻找与跟踪目标具有相同语义信息的样本,并在视频中精确定位样本的位置.最近,深度分类模型被用来提取跟踪目标的深度嵌入式特征,然而,由于深度分类模型给予相同类别的样本一样的标签,这样容易导致跟踪模糊,甚至失败.为了解决这个问题,本文将样本的空间位置信息加入深度分类模型中,提出位置敏感损失函数.本文所提出的损失函数不仅继承了分类损失函数的特性,并根据样本的空间位置信息对相同标签的样本进行了排序.也就是说,本文的损失函数可以同时实现类间可分和类内排序.相比于分类损失函数,本文的损失函数更适合目标跟踪任务.本文在OTB100[1]和VOT2016[2]上进行了测试,结果表明本文算法可以实现较好的跟踪性能.  相似文献   

12.
针对视频分类中普遍面临的类内离散度和类间相似性较大而制约分类性能的问题,该文提出一种基于深度度量学习的视频分类方法。该方法设计了一种深度网络,网络包含特征学习、基于深度度量学习的相似性度量,以及分类3个部分。其中相似性度量的工作原理为:首先,计算特征间的欧式距离作为样本之间的语义距离;其次,设计一个间隔分配函数,根据语义距离动态分配语义间隔;最后,根据样本语义间隔计算误差并反向传播,使网络能够学习到样本间语义距离的差异,自动聚焦于难分样本,以充分学习难分样本的特征。该网络在训练过程中采用多任务学习的方法,同时学习相似性度量和分类任务,以达到整体最优。在UCF101和HMDB51上的实验结果表明,与已有方法相比,提出的方法能有效提高视频分类精度。  相似文献   

13.
The existing cross-dataset person re-identification methods were generally aimed at reducing the difference of data distribution between two datasets,which ignored the influence of background information on recognition performance.In order to solve this problem,a cross-dataset person re-ID method based on multi-pool fusion and background elimination network was proposed.To describe both global and local features and implement multiple fine-grained representations,a multi-pool fusion network was constructed.To supervise the network to extract useful foreground features,a feature-level supervised background elimination network was constructed.The final network loss function was defined as a multi-task loss,which combined both person classification loss and feature activation loss.Three person re-ID benchmarks were employed to evaluate the proposed method.Using MSMT17 as the training set,the cross-dataset mAP for Market-1501 was 35.53%,which was 9.24% higher than ResNet50.Using MSMT17 as the training set,the cross-dataset mAP for DukeMTMC-reID was 41.45%,which was 10.72% higher than ResNet50.Compared with existing methods,the proposed method shows better cross-dataset person re-ID performance.  相似文献   

14.
一种新的多尺度深度学习图像语义理解方法研究   总被引:1,自引:1,他引:0  
如何在深度学习中融合 图像的多尺度信息,是基于深度学习的视觉算法需要解决的一个关键问题。本文提出一种基 于多尺度交替 迭代训练的深度学习方法,并应用于图像的语义理解。算法采用卷积神经网络(CNN)从原始 图像中提取稠密性特征 来编码以每个像素为中心的矩形区域,将多个尺度图像交替迭代训练,能够捕获不同尺度下 的纹理、颜色和 边缘等重要信息。在深度学习提取特征分类结果的基础上,提出了一种结合超像素分割的方 法,统计超像 素块的主导类别,来校正分类错误的像素类别,同时描绘出目标区域边界轮廓,完成最终的 语义理解。在Stanford Background Dataset 8类数据集上验证了本文方法的有效性,准确 率达到77.4%。  相似文献   

15.
于晓  姜晨慧 《红外》2023,44(12):41-48
本研究旨在解决红外图像刑侦场景中目标边缘模糊和轮廓不完整等问题。提出了一种基于特征增强的模糊刑侦目标提取方法。首先,设计模糊刑侦目标边缘提取网络模型(Blurry Criminal Investigation Target Edge Extraction Network Combined with Spatial Channel Attention, BCES-Net),并利用空间通道关注模块(Spatial and Channel Attention Module, STCAM)获取具有强语义信息的特征图像。接着通过建模提取来获取包含语义类别信息的边缘特征和模糊刑侦目标特征。在训练过程中,基于特定损失函数和多种特征融合技术,通过反复监督学习和训练校正,提高了边缘和模糊刑侦目标分割性能。在手部热痕迹数据集上,与DeeplabV3+、U-Net、HRNet、PSPNet等模型相比,BCES-Net模型在均交并比(mean Intersection over Union, mIoU)、平均精度均值(mean Average Precision, mAP)、准确率等评价指标上显著优越,mIo...  相似文献   

16.
张宇  张雷 《电讯技术》2021,61(10):1205-1212
针对现有的深度学习方法在人体动作识别中易出现过拟合、易受到干扰信息影响、特征表达能力不足的问题,提出了一种融入注意力机制的深度学习动作识别方法.该方法在数据预处理中提出了视频数据增强算法,降低了模型过拟合的风险,然后在视频帧采样过程中对现有的采样算法进行了改进,有效抑制了干扰信息的影响,并在特征提取部分提出了融入注意力的残差网络,提高了模型的特征提取能力;之后,利用长短时记忆(Long Short-Term Memory,LSTM)网络解决了空间特征的时序关联问题;最后,通过Softmax完成了相应动作的分类.实验结果表明,在UCF YouTube、KTH和HMDB-51数据集上,所提方法的识别率分别为96.72%、98.06%和64.81%.  相似文献   

17.
Machine learning technology has wide application in botnet detection.However,with the changes of the forms and command and control mechanisms of botnets,selecting features manually becomes increasingly difficult.To solve this problem,a botnet detection system called BotCatcher based on deep learning was proposed.It automatically extracted features from time and space dimension,and established classifier through multiple neural network constructions.BotCatcher does not depend on any prior knowledge which about the protocol and the topology,and works without manually selecting features.The experimental results show that the proposed model has good performance in botnet detection and has ability to accurately identify botnet traffic .  相似文献   

18.
Semantic segmentation is a prominent problem in scene understanding expressed as a dense labeling task with deep learning models being one of the main methods to solve it. Traditional training algorithms for semantic segmentation models produce less than satisfactory results when not combined with post-processing techniques such as CRFs. In this paper, we propose a method to train segmentation models using an approach which utilizes classification information in the training process of the segmentation network. Our method employs the use of classification network that detects the presence of classes in the segmented output. These class scores are then used to train the segmentation model. This method is motivated by the fact that by conditioning the training of the segmentation model with these scores, higher order features can be captured. Our experiments show significantly improved performance of the segmentation model on the CamVid and CityScapes datasets with no additional post processing.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号