安装
选择正确的版本
确保匹配 Spark 版本和 Scala 版本的设置。以下是一张兼容性表,可帮助您选择正确的连接器版本。
Spark 版本 | 工件 (**Scala 2.12**) | 工件 (**Scala 2.13**) |
---|---|---|
3.4+ |
|
|
3.3 |
|
|
3.2 |
|
|
3.0 和 3.1 |
|
|
与 Spark shell 一起使用
连接器可以通过 Spark 包 获取
$SPARK_HOME/bin/spark-shell --packages org.neo4j:neo4j-connector-apache-spark_2.12:5.3.2_for_spark_3
$SPARK_HOME/bin/pyspark --packages org.neo4j:neo4j-connector-apache-spark_2.12:5.3.2_for_spark_3
或者,您可以从 Neo4j 连接器页面 或 GitHub 版本页面 下载连接器 JAR 文件,并运行以下命令启动包含连接器的 Spark 交互式 shell
$SPARK_HOME/bin/spark-shell --jars neo4j-connector-apache-spark_2.12-5.3.2_for_spark_3.jar
$SPARK_HOME/bin/pyspark --jars neo4j-connector-apache-spark_2.12-5.3.2_for_spark_3.jar
自包含应用程序
对于非 Python 应用程序
-
使用应用程序的构建工具将连接器包含在您的应用程序中。
-
打包应用程序。
-
使用
spark-submit
运行应用程序。
对于 Python 应用程序,直接运行 spark-submit
。
至于 spark-shell
,您可以通过 Spark 包或使用本地 JAR 文件运行 spark-submit
。有关代码示例,请参阅 快速入门。
build.sbt
name := "Spark App"
version := "1.0"
scalaVersion := "2.12.18"
libraryDependencies += "org.apache.spark" %% "spark-sql" % "3.5.1"
libraryDependencies += "org.neo4j" %% "neo4j-connector-apache-spark" % "5.3.1_for_spark_3"
如果您使用 sbt-spark-package 插件,请将以下内容添加到您的 build.sbt
中
scala spDependencies += "org.neo4j/neo4j-connector-apache-spark_2.12:5.3.2_for_spark_3"
pom.xml
<project>
<groupId>org.neo4j</groupId>
<artifactId>spark-app</artifactId>
<modelVersion>4.0.0</modelVersion>
<name>Spark App</name>
<packaging>jar</packaging>
<version>1.0</version>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>3.5.1</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>org.neo4j</groupId>
<artifactId>neo4j-connector-apache-spark_2.12</artifactId>
<version>5.3.1_for_spark_3</version>
</dependency>
</dependencies>
</project>