主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
罗晓慧,李凡长,张莉,高家俊.基于选择聚类集成的相似流形学习算法.软件学报,2020,31(4):0
基于选择聚类集成的相似流形学习算法
Similar Manifold Learning Based on Selective Cluster Ensemble for Image Clustering
投稿时间:2019-05-29  修订日期:2019-08-01
DOI:10.13328/j.cnki.jos.005922
中文关键词:  相似流形学习  流形学习  集成学习  维度约简
英文关键词:similar manifold learning  manifold learning  ensemble learning  dimensionality reduction
基金项目:国家重点研发计划(2018YFA0701701);国家自然科学基金(61672364)
作者单位E-mail
罗晓慧 苏州大学 计算机科学与技术学院, 江苏 苏州 215006  
李凡长 苏州大学 计算机科学与技术学院, 江苏 苏州 215006 lfzh@suda.edu.cn 
张莉 苏州大学 计算机科学与技术学院, 江苏 苏州 215006  
高家俊 苏州大学 计算机科学与技术学院, 江苏 苏州 215006  
摘要点击次数: 64
全文下载次数: 24
中文摘要:
      流形学习是当今最重要的研究方向之一.约简维度的选择影响着流形学习方法的性能.当约简维度恰好是本征维度时,更容易发现原始数据的内在性质.然而,本征维度估计仍然是流形学习的一个研究难点.在此基础上,本文提出了一种新的无监督方法,即基于选择聚类集成的相似流形学习(SML-SCE)算法,避免了对本征维度的估计,并且性能表现良好.SML-SCE利用改进的层次平衡K-means(MBKHK)方法生成具有代表性的锚点,高效地构造相似度矩阵.随后计算得到了多个不同维度下的相似低维嵌入,这些低维嵌入是对原始数据的不同表示,而且不同低维嵌入之间的多样性有利于集成学习.因此,SML-SCE采用选择性聚类集成方法作为结合策略.对于通过K-means聚类得到的相似低维嵌入的聚类结果,采用聚类间的归一化互信息(NMI)作为权重的衡量标准.最后,舍弃权重较低的聚类,采用基于权重的选择性投票方案,得到最终的聚类结果.在多个数据集的大量实验体现了该方法的有效性.
英文摘要:
      Manifold learning is one of the most important research directions nowadays. The performance of manifold learning methods is affected by the choice of reduced dimension. When the reduced dimension is the intrinsic dimension, it is easily to handle the original data. However, intrinsic dimension estimation is still a challenge of manifold learning. In this study, we propose a novel unsupervised method, called Similar Manifold Learning based on Selective Cluster Ensemble (SML-SCE), which avoids the estimation of intrinsic dimension and achieves a promising performance. SML-SCE generates representative anchors with Modified Balanced K-means based Hierarchical K-means (MBKHK) to construct similarity matrix efficiently. Moreover, multiple similar low-dimensional embeddings in different dimensions are obtained, which are the different presentations of original data. The diversity of these similar low-dimensional embeddings is benefit to the ensemble learning. Therefore, we take advantage of selective cluster ensemble method as the combination rule. For the clustering results obtained by K-means in similar low-dimensional embeddings, we calculate the normalized mutual information (NMI) between clusterings as weight. Finally, we discard the low weight clusterings and adopt a selective vote scheme based on weight to obtain the final clustering. Extensive experiments on several data sets demonstrate the validity of our proposed method.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利