运行导入作业

您可以通过 Local Dataflow Runner 工具在本地验证您的作业文件是否符合模板规范,并针对临时 Neo4j 容器执行(它依赖于 Apache Beam 的 Direct Runner;Dataflow 中可能仍存在运行时错误)。这种验证形式比提交 Dataflow 作业快得多。

作业规范准备就绪后,将其 JSON 文件上传到您的 Cloud Storage 存储桶,然后转到 Dataflow → 从模板创建作业

要创建作业,请指定以下字段

  • 作业名称 — 一个易于理解的作业名称。

  • 区域端点 — 必须与包含配置和源文件的 Google Cloud Storage 存储桶区域匹配。如果运行文档中提供的完整示例,将区域设置为 us 区域之一。

  • Dataflow 模板 — 选择 Google Cloud to Neo4j

  • 作业配置文件路径 — JSON 作业规范文件(来自 Google Cloud Storage 存储桶)。

  • 可选参数 > Options JSON — 在作业规范文件中使用的变量的值。

连接元数据可以指定为 Secret 或纯文本 JSON 资源。必须且只能指定其中一个选项!

  • 可选参数 > Neo4j 连接元数据路径 — JSON 连接信息文件(来自 Google Cloud Storage 存储桶)。

  • 可选参数 > Neo4j 连接元数据的 Secret ID — 包含 JSON 连接信息的 Secret ID(来自 Google Secret Manager)。

image$dataflow job example
© . All rights reserved.