【问题标题】:How to cluster docs based on their similarity measures?如何根据文档的相似性度量对文档进行聚类?
【发布时间】:2015-04-15 21:12:51
【问题描述】:

我阅读了有关该主题的帖子,例如如何根据文档的相似性对文档进行聚类here。但我仍然无法理解它是如何实现的。我的测试是我有 10 个文档的 cos 相似性度量。以下是一些:

D1  D2   sim(D1,D2)

d1  d10 0.6823 
d1  d2  0.6377 
d1  d8  0.0307 
d1  d9  0.0294 
d1  d7  0.0284 
d1  d3  0.0234 
d1  d4  0.0199 
d1  d6  0.0110 
d1  d5  0.0030 
d10 d2  0.7232 
d10 d3  0.3898 
d10 d4  0.3054 
d10 d9  0.0256 
d10 d7  0.0227 
d10 d8  0.0226 
d10 d6  0.0110 
d10 d5  0.0060 
d2  d3  0.7850 
...
...

我可以仅根据相似性度量对这些文档进行聚类吗? 如果我指定集群的数量,该怎么做? 如果我不指定聚类的数量,算法可以自动聚类那些文档,怎么做? 提前致谢。

【问题讨论】:

    标签: machine-learning data-mining


    【解决方案1】:

    聚类是机器学习的最大领域之一(按比例您可以将其与数学中的“集成”或编程中的“排序”进行比较),实际上有数百种不同的算法,专注于不同的问题设置和要求。其中一些需要指定集群的数量,有些则不需要。有些可以只处理成对相似性,有些需要对被聚类的项目进行一些明确的表示,等等。

    我建议你从两个经典的聚类算法开始:

    【讨论】:

      【解决方案2】:

      各种聚类算法在成对距离上运行;并且许多也可以适应成对相似性。

      层次凝聚聚类 (HAC) 是其原型。它适用于距离或相似度矩阵,并从单个文档开始合并最相似的集群。其他算法包括 DBSCAn、OPTICS、...

      k-means 正好相反。它计算均值以及与均值的距离。由于使用 mean,它不适用于相似性或其他距离而不是平方欧几里得。均值最小化最小二乘,而不是距离。然而,有时你有出路。如果您的数据被归一化为非负单位球体,则平方欧几里得 d2(a,b)= 2 - 2*cos(a,b)。因此,球形 k-means 也有效。其他依赖坐标和均值的算法包括 Mean-Shift 和 BIRCH。

      【讨论】:

      • 非常感谢您的回答,但我只能选择一个答案作为答案。在旧金山,我还阅读了您的许多建议和指向您的研究页面的链接..
      猜你喜欢
      • 2015-12-29
      • 1970-01-01
      • 2016-08-09
      • 2014-11-03
      • 2019-10-25
      • 2020-02-06
      • 2019-06-19
      • 1970-01-01
      • 2015-07-02
      相关资源
      最近更新 更多