【问题标题】:Populate Neo4j with spark connector使用 spark 连接器填充 Neo4j
【发布时间】:2018-03-29 16:40:29
【问题描述】:

我正在使用 Spark2 和 Neo4j 3(安装在一个节点上)和这个 Spark/Neo4J https://github.com/neo4j-contrib/neo4j-spark-connector

我可以对我的数据库进行身份验证。

在我阅读的所有文档中,没有人直接使用 Spark 填充 Neo4j。

他们通过 UI 或其他方式直接请求将数据加载到 Neo4J 中。

我必须用 spark 在 Neo4j 中摄取数据。

我是否必须映射到每个 Dataframe 并创建查询并执行它们?

来源: https://docs.databricks.com/spark/latest/data-sources/neo4j.html : 只请求...

https://neo4j.com/developer/apache-spark/ : org.neo4j.spark.Neo4j(sc).cypher(query,[params]),nodes(query,[params]),rels(query,[params])。

感谢您的帮助。

【问题讨论】:

    标签: scala apache-spark neo4j


    【解决方案1】:

    根据 neo4j-spark-connector 的文档,您应该能够使用 mergeEdgeList() 函数将数据从 DataFrame 加载到 Neo4j 数据库中。这个thread 讨论了同样的问题,可能对你有帮助。

    【讨论】: