排序方式: 共有2条查询结果,搜索用时 109 毫秒
1
1.
主动学习能够以更少的标注成本训练出更好的机器学习模型。 现有的 RD 算法与 QBC 算法的结合有效地解决了只考
虑单一标准的问题。 然而,RD 所基于的 K-means 聚类会将离群点也包括在内进而造成模型性能降低,而 QBC 则需要维护于多
个模型而间接返回样本的信息性. 针对上述问题,本文提出了一种基于自适应密度聚类的高斯过程回归(ADC-GPR)算法,通过
先聚类后直接利用不确定性进而高效选择样本。 该算法中的 ADC 聚类不仅对离群点鲁棒,还能根据数据集分布特性自适应聚
类,并为后续的 AL 提供了代表性样本点和其对应的簇,该方法在无监督选择时保证了代表性和多样性,在有监督选择时考虑
了信息性、代表性和多样性。 实验结果表明,在相同的抽样次数下将 ADC-GPR 算法与 RS、KS 以及 RD-GPR 算法相比,其平均
性能分别提升了 37. 3% 、8% 和 2. 8% ,ADC-GPR 算法的选择效率更高。 相似文献
2.
1