登录    注册    忘记密码

期刊文章详细信息

密度峰值隶属度优化的半监督Self-Training算法    

Semi-supervised Self-Training Algorithm for Density Peak Membership Optimization

  

文献类型:期刊文章

作  者:刘学文[1] 王继奎[1] 杨正国[1] 李冰[1] 聂飞平[2]

LIU Xuewen;WANG Jikui;YANG Zhengguo;LI Bing;NIE Feiping(School of Information Engineering,Lanzhou University of Finance and Economics,Lanzhou 730020,China;Center for Optical Imagery Analysis and Learning,Northwestern Polytechnical University,Xi’an 710072,China)

机构地区:[1]兰州财经大学信息工程学院,兰州730020 [2]西北工业大学光学影像分析与学习中心,西安710072

出  处:《计算机科学与探索》

基  金:国家自然科学基金(61772427,11801345);甘肃省高等学校创新能力提升项目(2019B-97,2019A-069);兰州财经大学科研项目(Lzufe2020B-0010,Lzufe2020B-011);甘肃省科技计划项目(20CX9ZA057)。

年  份:2022

卷  号:16

期  号:9

起止页码:2078-2088

语  种:中文

收录情况:BDHX、BDHX2020、CSCD、CSCD2021_2022、DOAJ、IC、JST、ZGKJHX、核心刊

摘  要:现实中由于获取标签的成本很高,大部分的数据只含有少量标签。相比监督学习和无监督学习,半监督学习能充分利用数据集中的大量无标签数据和少量有标签数据,以较少的标签成本获得较高的学习性能。自训练算法是一种经典的半监督学习算法,在其迭代优化分类器的过程中,不断从无标签样本中选取高置信度样本并由基分类器赋予标签,再将这些样本和伪标签添加进训练集。选取高置信度样本是Self-Training算法的关键,受密度峰值聚类算法(DPC)启发,将密度峰值用于高置信度样本的选取,提出了密度峰值隶属度优化的半监督Self-Training算法(STDPM)。首先,STDPM利用密度峰值发现样本的潜在空间结构信息并构造原型树。其次,搜索有标签样本在原型树上的无标签近亲结点,将无标签近亲结点的隶属于不同类簇的峰值定义为簇峰值,归一化后作为密度峰值隶属度。最后,将隶属度大于设定阈值的样本作为高置信度样本,由基分类器赋予标签后添加进训练集。STDPM充分利用密度峰值所隐含的密度和距离信息,提升了高置信度样本的选取质量,进而提升了分类性能。在8个基准数据集上进行对比实验,结果验证了STDPM算法的有效性。

关 键 词:密度峰值隶属度  簇峰值  原型树  近亲结点集  自训练  

分 类 号:TP181]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心