【发布时间】:2018-03-29 16:40:29
【问题描述】:
我正在使用 Spark2 和 Neo4j 3(安装在一个节点上)和这个 Spark/Neo4J https://github.com/neo4j-contrib/neo4j-spark-connector
我可以对我的数据库进行身份验证。
在我阅读的所有文档中,没有人直接使用 Spark 填充 Neo4j。
他们通过 UI 或其他方式直接请求将数据加载到 Neo4J 中。
我必须用 spark 在 Neo4j 中摄取数据。
我是否必须映射到每个 Dataframe 并创建查询并执行它们?
来源: https://docs.databricks.com/spark/latest/data-sources/neo4j.html : 只请求...
https://neo4j.com/developer/apache-spark/ : org.neo4j.spark.Neo4j(sc).cypher(query,[params]),nodes(query,[params]),rels(query,[params])。
感谢您的帮助。
【问题讨论】:
标签: scala apache-spark neo4j