【发布时间】:2018-02-04 19:28:58
【问题描述】:
Mahout 0.13.0 / java 8
我是 Mahout 的新手,并试图了解如何使用 Mahout 实现推荐引擎。到目前为止我知道..
Mahout 提供 3 种类型的过滤 -
- 协同过滤(非基于 Hadoop)
- 分类(基于 Hadoop)
- 集群(基于 Hadoop)
- 基于内容的过滤
为了开始实施我的第一个建议,我从无需 Hadoop 即可轻松实施的协作过滤开始。
协同过滤 -
- 基于用户的推荐
- 基于项目的推荐
- 倾斜一个
- 还有更多...
Mahout 接口:
1.数据模型 2. 用户相似度 3.项目相似度 4. 用户邻里 5. 推荐人
我了解它的组成部分,并使用相似性和邻域的多种组合编写了基于用户和项目的推荐。
问题:
- 由于基于 Map-Reduce 的协同过滤,Mahout 是否在 0.13.0 版本中完全弃用 Map-Reduce?所有协同过滤算法都被弃用了吗?那有什么选择呢?是因为 Map-Reduce 的性能比 Spark 慢吗?
- 我检查了,Mahout 还通过Spark 和Flink 提供支持。 Mahout spark 提供 2 种类型的过滤 -> spark 项目相似度 和 spark 行相似度。 但我还没有找到任何基于 java 的示例来在 java 中创建推荐。
- 可能 Mahout Spark 与 Scala 的兼容性更好,但是我们可以在 Java 中编写基于 spark 项相似度和 spark 行相似度的推荐引擎吗?也推荐一些例子。
- Mahout Spark 可以在没有 Hadoop 的情况下独立运行吗?到目前为止,我知道 Spark 是 Hadoop 的替代品,我们可以在其中进行实时处理。除了 mahout-spark_2.10-0.13.0.jar 和 mahout-spark_2.10-0.13.0-dependency-reduced.jar 之外,我需要添加哪些库?
- Mahout spark 与独立的 Apache Spark 不同?我也在考虑使用独立的 Apache Spark。
谁能帮我解释一下。
【问题讨论】:
标签: java hadoop apache-spark mahout mahout-recommender