首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 67 毫秒
1.
基于半监督学习的眉毛图像分割方法   总被引:1,自引:1,他引:1       下载免费PDF全文
眉毛图像的分割,由于受到毛发、姿势及个体差异的影响,是一个非常困难的问题。提出了一种利用半监督学习技术进行彩色眉毛图像分割的方法,首先通过手工在眉毛图像上简单画上几条线标注部分眉毛点和非眉毛点,然后利用半监督学习技术完成眉毛图像分割并从中提取纯眉毛图像,最后通过实验说明该方法具有非常好的分割效果,可用于眉毛识别的前期预处理。  相似文献   

2.
在医学图像中, 器官或病变区域的精准分割对疾病诊断等临床应用有着至关重要的作用, 然而分割模型的训练依赖于大量标注数据. 为减少对标注数据的需求, 本文主要研究针对医学图像分割的半监督学习任务. 现有半监督学习方法广泛采用平均教师模型, 其缺点在于, 基于指数移动平均(Exponential moving average, EMA)的参数更新方式使得老师模型累积学生模型的错误知识. 为避免上述问题, 提出一种双模型交互学习方法, 引入像素稳定性判断机制, 利用一个模型中预测结果更稳定的像素监督另一个模型的学习, 从而缓解了单个模型的错误经验的累积和传播. 提出的方法在心脏结构分割、肝脏肿瘤分割和脑肿瘤分割三个数据集中取得优于前沿半监督方法的结果. 在仅采用30%的标注比例时, 该方法在三个数据集上的戴斯相似指标(Dice similarity coefficient, DSC)分别达到89.13%, 94.15%, 87.02%.  相似文献   

3.
哈希图半监督学习方法及其在图像分割中的应用   总被引:2,自引:0,他引:2  
张晨光  李玉鑑 《自动化学报》2010,36(11):1527-1533
图半监督学习(Graph based semi-supervised learning, GSL)方法需要花费大量时间构造一个近邻图, 速度比较慢. 本文提出了一种哈希图半监督学习(Hash graph based semi-supervised learning, HGSL)方法, 该方法通过局部敏感的哈希函数进行近邻搜索, 可以有效降低图半监督学习方法所需的构图时间. 图像分割实验表明, 该方法一方面可以达到更好的分割效果, 使分割准确率提高0.47%左右; 另一方面可以大幅度减小分割时间, 以一幅大小为300像素×800像素的图像为例, 分割时间可减少为图半监督学习所需时间的28.5%左右.  相似文献   

4.
吴崇数  林霖  薛蕴菁  时鹏 《计算机应用》2020,40(6):1856-1862
在苏木精-伊红(HE)染色病理图像中,细胞染色分布的不均匀和各类组织形态的多样性给病理图像的自动分割带来极大挑战。为解决该问题,提出了一种基于自监督学习的病理图像三步层次分割方法,对病理图像中各类组织进行由粗略到精细的全自动逐层分割。首先,根据互信息的计算结果在RGB色彩空间中进行特征选择;其次,采用K-means聚类将图像初步分割为各类组织结构的色彩稳定区域与模糊区域;然后,以色彩稳定区域为训练集采用朴素贝叶斯分类对模糊区域进行进一步分割,得到完整的细胞核、细胞质和胞外间隙这三类组织结构;最后,对细胞核部分进行结合形状和色彩强度的混合分水岭分割得到细胞核间的精确边界,进而量化计算细胞核个数、核占比、核质比等指标。对脑膜瘤HE染色病理图像的分割实验结果表明,所提方法对于染色和细胞形态差异保持较高的鲁棒性,各类组织区域分割误差在5%以内,在细胞核分割精度的对比实验中平均正确率在96%以上,满足临床自动图像分析的要求,其量化结果可以为定量病理分析提供依据。  相似文献   

5.
曹昀炀  王涛 《计算机应用》2019,39(9):2695-2700
针对传统半监督图像分割方法难以精确分割分散或细小区域的缺陷,提出了一种耦合标签先验和拉普拉斯坐标模型的半监督图像分割算法。首先,扩展拉普拉斯坐标(LC)模型,通过引入标签先验项进一步精确表征未标记像素点与已标记像素点之间的关系。然后,基于矩阵方程的求导优化,有效估计像素属于标签的后验概率,以实现图像目标分割的任务。得益于标签先验的引入,所提算法对分散或细小区域的分割更加鲁棒。最后,在多个公开的半监督分割数据集上实验结果表明,相比拉普拉斯坐标算法,所提算法的分割准确率获得了显著提升,验证了所提算法的有效性。  相似文献   

6.
基于朴素贝叶斯的半监督学习遥感影像分类   总被引:1,自引:0,他引:1       下载免费PDF全文
杨伟  方涛  许刚 《计算机工程》2010,36(20):167-169
为提高分类器识别率,减少标注样本使用数量,提出一种基于朴素贝叶斯的半监督学习方法。研究基于该方法的分类器分类效果,采用遥感影像数据作为训练和测试集,与基于朴素贝叶斯的全监督学习分类器分类效果作比较。实验结果表明,当标注样本与非标注样本比例在1:2~1:9时,半监督学习可以利用比全监督学习更少的标注样本,达到更高的分类精度。  相似文献   

7.
提出了一种没有训练集情况下实现对未标注类别文本文档进行分类的问题。类关联词是与类主体相关、能反映类主体的单词或短语。利用类关联词提供的先验信息,形成文档分类的先验概率,然后组合利用朴素贝叶斯分类器和EM迭代算法,在半监督学习过程中加入分类约束条件,用类关联词来监督构造一个分类器,实现了对完全未标注类别文档的分类。实验结果证明,此方法能够以较高的准确率实现没有训练集情况下的文本分类问题,在类关联词约束下的分类准确率要高于没有约束情况下的分类准确率。  相似文献   

8.
目的 将半监督对抗学习应用于图像语义分割,可以有效减少训练过程中人工生成标记的数量。作为生成器的分割网络的卷积算子只具有局部感受域,因此对于图像不同区域之间的远程依赖关系只能通过多个卷积层或增加卷积核的大小进行建模,但这种做法也同时失去了使用局部卷积结构获得的计算效率。此外,生成对抗网络(generative adversarial network, GAN)中的另一个挑战是判别器的性能控制。在高维空间中,由判别器进行的密度比估计通常是不准确且不稳定的。为此,本文提出面向图像语义分割的半监督对抗学习方法。方法 在生成对抗网络的分割网络中附加两层自注意模块,在空间维度上对语义依赖关系进行建模。自注意模块通过对所有位置的特征进行加权求和,有选择地在每个位置聚合特征。因而能够在像素级正确标记值数据的基础上有效处理输入图像中广泛分离的空间区域之间的关系。同时,为解决提出的半监督对抗学习方法的稳定性问题,在训练过程中将谱归一化应用到对抗网络的判别器中,这种加权归一化方法不仅可以稳定判别器网络的训练,并且不需要对唯一的超参数进行密集调整即可获得满意性能,且实现简单,计算量少,即使在缺乏互补的正则化...  相似文献   

9.
高敬惠  李玉海  刘国丽 《微计算机信息》2007,23(24):309-310,212
本文提出了一种新的基于期望最大化以及贝叶斯信息准则的图像分割方法。首先,运用K均值方法初始化图像分布,运用期望最大算法估计输入图像参数数据,且图像中类的数目由贝叶斯消息准则自动确定。运用最大似然标准将像素归类于最相近的类中。本法的优点在于不过分依赖于原始估计,可以用来进行无监督的图像的分割。运用两幅真实图像进行了实验,结果表明此方法有效。  相似文献   

10.
针对基于颜色特征空间的半监督聚类分割算法适合分割结果包含多个颜色特征相似目标的应用场合,但对高噪声图像却无法获得理想的分割结果,而基于随机游走理论的半监督图像分割算法需要用户对目标逐一进行标记的问题,提出一种半监督图像分割算法.首先根据用户标记采用半监督模糊C均值聚类(SSFCM)算法对图像颜色特征进行建模;然后引入一个确信度函数,并根据SSFCM算法得到的隶属度数据计算确信度函数值,再将像素分为2类,分别作为随机游走图像分割算法的已标记点和未标记点;最后采用随机游走算法完成最终的分割.实验结果表明,该算法对图像中的噪声具有良好的抑制作用,且无需用户对目标逐一进行标记.  相似文献   

11.
针对不确定正例和未标记学习的最近邻算法(英文)   总被引:1,自引:0,他引:1       下载免费PDF全文
研究了在正例和未标记样本场景下不确定样本的分类问题,提出了一种新的算法NNPU(nearest neighbor algorithm for positive and unlabeled learning)。NNPU具有两种实现方式:NNPUa和NNPUu。在UCI标准数据集上的实验结果表明,充分考虑数据不确定信息的NNPUu算法要比仅仅考虑样本中不确定信息均值的NNPUa算法具有更好的分类能力;同时,NNPU算法在对精确数据进行分类时,比NN-d、OCC以及aPUNB算法性能更优。  相似文献   

12.
We present a simple combinatorial criterion for determining concept classes that cannot be learned in the sense of Valiant from a polynomial number of positive-only examples. The criterion is applied to several types of Boolean formulae in conjunctive and disjunctive normal form, to the majority function, to graphs with large connected components, and to a neural network with a single threshold unit. All are shown to be nonlearnable from positive-only examples.  相似文献   

13.
Word Sense Disambiguation by Learning Decision Trees from Unlabeled Data   总被引:1,自引:0,他引:1  
In this paper we describe a machine learning approach to word sense disambiguation that uses unlabeled data. Our method is based on selective sampling with committees of decision trees. The committee members are trained on a small set of labeled examples which are then augmented by a large number of unlabeled examples. Using unlabeled examples is important because obtaining labeled data is expensive and time-consuming while it is easy and inexpensive to collect a large number of unlabeled examples. The idea behind this approach is that the labels of unlabeled examples can be estimated by using committees. Using additional unlabeled examples, therefore, improves the performance of word sense disambiguation and minimizes the cost of manual labeling. Effectiveness of this approach was examined on a raw corpus of one million words. Using unlabeled data, we achieved an accuracy improvement up to 20.2%.  相似文献   

14.
Learning from Cluster Examples   总被引:2,自引:0,他引:2  
Learning from cluster examples (LCE) is a hybrid task combining features of two common grouping tasks: learning from examples and clustering. In LCE, each training example is a partition of objects. The task is then to learn from a training set, a rule for partitioning unseen object sets. A general method for learning such partitioning rules is useful in any situation where explicit algorithms for deriving partitions are hard to formalize, while individual examples of correct partitions are easy to specify. In the past, clustering techniques have been applied to such problems, despite being essentially unsuited to the task. We present a technique that has qualitative advantages over standard clustering approaches. We demonstrate these advantages by applying our method to problems in two domains; one with dot patterns and one with more realistic vector-data images.  相似文献   

15.
识别虚假评论有着重要的理论意义与现实价值.先前工作集中于启发式策略和传统的全监督学习算法.最近研究表明:人类无法通过先验知识有效识别虚假评论,手工标注的数据集必定存在一定数量的误例,因此简单使用传统的全监督学习算法识别虚假评论并不合理.容易被错误标注的样例称为间谍样例,如何确定这些样例的类别标签将直接影响分类器的性能.基于少量的真实评论和大量的未标注评论,提出一种创新的PU(positive and unlabeled)学习框架来识别虚假评论.首先,从无标注数据集中识别出少量可信度较高的负例.其次,通过整合LDA(latent Dirichlet allocation)和K-means,分别计算出多个代表性的正例和负例.接着,基于狄利克雷过程混合模型(Dirichlet process mixture model, DPMM),对所有间谍样例进行聚类,混合种群性和个体性策略来确定间谍样例的类别标签.最后,多核学习算法被用来训练最终的分类器.数值实验证实了所提算法的有效性,超过当前的基准.  相似文献   

16.
Traditional classification algorithms require a large number of labelled examples from all the predefined classes, which is generally difficult and time-consuming to obtain. Furthermore, data uncertainty is prevalent in many real-world applications, such as sensor network, market analysis and medical diagnosis. In this article, we explore the issue of classification on uncertain data when only positive and unlabelled examples are available. We propose an algorithm to build naive Bayes classifier from positive and unlabelled examples with uncertainty. However, the algorithm requires the prior probability of positive class, and it is generally difficult for the user to provide this parameter in practice. Two approaches are proposed to avoid this user-specified parameter. One approach is to use a validation set to search for an appropriate value for this parameter, and the other is to estimate it directly. Our extensive experiments show that the two approaches can basically achieve satisfactory classification performance on uncertain data. In addition, our algorithm exploiting uncertainty in the dataset can potentially achieve better classification performance comparing to traditional naive Bayes which ignores uncertainty when handling uncertain data.  相似文献   

17.
The positive unlabeled learning term refers to the binary classification problem in the absence of negative examples. When only positive and unlabeled instances are available, semi-supervised classification algorithms cannot be directly applied, and thus new algorithms are required. One of these positive unlabeled learning algorithms is the positive naive Bayes (PNB), which is an adaptation of the naive Bayes induction algorithm that does not require negative instances. In this work we propose two ways of enhancing this algorithm. On one hand, we have taken the concept behind PNB one step further, proposing a procedure to build more complex Bayesian classifiers in the absence of negative instances. We present a new algorithm (named positive tree augmented naive Bayes, PTAN) to obtain tree augmented naive Bayes models in the positive unlabeled domain. On the other hand, we propose a new Bayesian approach to deal with the a priori probability of the positive class that models the uncertainty over this parameter by means of a Beta distribution. This approach is applied to both PNB and PTAN, resulting in two new algorithms. The four algorithms are empirically compared in positive unlabeled learning problems based on real and synthetic databases. The results obtained in these comparisons suggest that, when the predicting variables are not conditionally independent given the class, the extension of PNB to more complex networks increases the classification performance. They also show that our Bayesian approach to the a priori probability of the positive class can improve the results obtained by PNB and PTAN.  相似文献   

18.
针对医学图像检索中底层特征不能完整地描述图像的高层语义的问题,提出一种基于图的半监督学习框架的医学图像检索算法.首先根据图像之间的距离关系构建图模型,并在标记传播过程中加入密度相似性约束,得到查询图像的类别归属度,即图像的视觉语义表示;然后提取图像分块SIFT特征,用词袋进行描述,以获取图像的局部特征;最后设计了结合视觉语义和局部特征的相似性度量准则.在ImageCLEFmed上的实验结果表明,该算法能够有效地表达图像的视觉语义,检索效率优于单一底层特征检索.  相似文献   

19.
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号