【发布时间】:2023-07-12 14:04:01
【问题描述】:
我是 spark 和 neo4j 的新手,需要帮助来设置它们。
我的目标是在 spark 中读取 HDFS 文件并在 neo4j 中放置/表示它。有人可以帮我在 spark 和 neo4j 之间创建一个连接器,但 neo4j 是一个容器吗?在互联网上找到的所有内容中,我有点迷茫,而且我的容器中没有结果。
我正在尝试关注此链接https://github.com/neo4j-contrib/neo4j-spark-connector。但例如,我找不到我的 pom.xml 文件来更改它。我必须创建一个新的并将其放在 neo4j 上吗?
对于这种连接,火花必须在 neo4j 容器内吗?或者它可以在集群中,在容器之外,它们是否相互识别?
任何帮助都是好的!谢谢!
【问题讨论】:
-
这真的是关于网络的问题,而不是 spark 和 neo4j。
标签: scala apache-spark neo4j containers cluster-computing