运行导入作业

您可以通过 Local Dataflow Runner 在本地验证您的规范文件。该工具允许您在本地验证您的作业文件是否符合模板规范,并针对临时 Neo4j 容器执行它(它依赖于 Apache Beam 的 Direct Runner;Dataflow 中仍可能出现运行时错误)。这种验证形式比提交 Dataflow 作业快得多。

作业规范准备就绪后,将其 JSON 文件上传到您的 Cloud Storage 存储桶,然后转到 Dataflow → 从模板创建作业

要创建作业,请指定以下字段

  • 作业名称 — 作业的易于理解的名称。

  • 区域端点 — 必须与包含配置和源文件的 Google Cloud Storage 存储桶的区域匹配。如果运行文档中提供的完整示例,请将区域设置为其中一个 us 区域。

  • Dataflow 模板 — 选择 Google Cloud to Neo4j

  • 作业配置文件路径 — JSON 作业规范文件(来自 Google Cloud Storage 存储桶)。

  • 可选参数 > Options JSON — 作业规范文件中使用的变量的值。

连接元数据可以指定为密钥或纯文本 JSON 资源。必须且仅指定其中一个选项!

  • 可选参数 > Neo4j 连接元数据路径 — JSON 连接信息文件(来自 Google Cloud Storage 存储桶)。

  • 可选参数 > Neo4j 连接元数据密钥 ID — 包含 JSON 连接信息(来自 Google Secret Manager)的密钥的 ID。

image$dataflow job example
© . All rights reserved.