非监督学习最强攻略(3)
发布时间:2019-10-14 14:28 所属栏目:19 来源:SAMshare
导读:优点: 随机(统一)标签分配 对于任何值的ARI分数接近0.0n_clusters,n_samples(对于原始的兰德指数或V度量,情况不是这样)。 有界范围[-1,1]:负值是坏的(独立标注),相似的聚类具有正的ARI,1.0是完美的匹配得分。
优点:
缺点:
4)Mutual Information based scores(基于相互信息的分数) 鉴于labels_true相同样本的基本真实类分配和我们的聚类算法分配的知识labels_pred, 互信息是衡量两个分配的一致性的函数,忽略排列。这种措施的两个不同的标准化版本是可用的,归一化互信息(NMI)和调整的相互信息(AMI)。文献中经常使用NMI,而最近提出了AMI,并针对机会进行归一化: 优点:
缺点:
常见聚类算法对比 下面一张图介绍几种Scikit learn的常用聚类算法的比较: 常见聚类算法的Python实现 上面说了这么多聚类算法,还是在最后面,把算法的Python实现代码给大家贴一下: 1)K-Means聚类 2)分层聚类(Hierarchical clustering) 3)t-SNE聚类 4)DBSCAN聚类 5)MiniBatchKMeans 6)Affinity Propagation(近邻传播) Reference 《百面机器学习》——chapter5
(编辑:ASP站长网) |
相关内容
网友评论
推荐文章
热点阅读