运行导入作业
您可以通过 Local Dataflow Runner 在本地验证您的规范文件。该工具允许您在本地验证您的作业文件是否符合模板规范,并针对临时 Neo4j 容器执行它(它依赖于 Apache Beam 的 Direct Runner;Dataflow 中仍可能出现运行时错误)。这种验证形式比提交 Dataflow 作业快得多。 |
作业规范准备就绪后,将其 JSON 文件上传到您的 Cloud Storage 存储桶,然后转到 Dataflow → 从模板创建作业。
要创建作业,请指定以下字段
-
作业名称 — 作业的易于理解的名称。
-
区域端点 — 必须与包含配置和源文件的 Google Cloud Storage 存储桶的区域匹配。如果运行文档中提供的完整示例,请将区域设置为其中一个
us
区域。 -
Dataflow 模板 — 选择
Google Cloud to Neo4j
。 -
作业配置文件路径 — JSON 作业规范文件(来自 Google Cloud Storage 存储桶)。
-
可选参数 > Options JSON — 作业规范文件中使用的变量的值。
连接元数据可以指定为密钥或纯文本 JSON 资源。必须且仅指定其中一个选项!
-
可选参数 > Neo4j 连接元数据路径 — JSON 连接信息文件(来自 Google Cloud Storage 存储桶)。
-
可选参数 > Neo4j 连接元数据密钥 ID — 包含 JSON 连接信息(来自 Google Secret Manager)的密钥的 ID。
