备份离线数据库
请务必仔细规划您的备份并备份所有数据库,包括 |
命令
neo4j-admin database dump
命令可用于执行离线数据库的完整备份。它将数据库转储到一个名为<database>.dump的单文件存档中,并将其存储在<NEO4J_HOME>/data 目录中。或者,neo4j-admin database dump
可以将转储流式传输到标准输出,使输出能够被管道传输到另一个程序,例如neo4j-admin database load
。
如果数据库托管在集群中,请确保在您连接的服务器上已停止数据库。该命令只能从在线或离线 Neo4j DBMS 本地运行。它不支持 SSL/TLS。
语法
neo4j-admin database dump [-h] [--expand-commands]
[--verbose] [--overwrite-destination[=true|false]]
[--additional-config=<file>]
[--to-path=<path> | --to-stdout]
<database>
描述
将数据库转储到一个单文件存档中。该存档可由 load 命令使用。<to-path>
应该是一个目录(在这种情况下,将创建一个名为<database>.dump 的文件),或者可以提供 --to-stdout
来使用标准输出。如果既没有提供--to-path
也没有提供--to-stdout
,则将使用server.directories.dumps.root
设置作为目标。无法转储挂载在正在运行的 Neo4j 服务器中的数据库。
参数
参数 | 描述 |
---|---|
|
要转储的数据库的名称。可以包含 |
选项
neo4j-admin database dump
命令具有以下选项
选项 | 描述 | 默认值 |
---|---|---|
|
包含附加配置的配置文件。 |
|
|
允许在配置值评估中扩展命令。 |
|
|
显示此帮助消息并退出。 |
|
|
覆盖目标文件夹中任何现有的转储文件。 |
|
|
数据库转储的目标文件夹。可以使用适当的 URI 作为路径将数据库转储到 AWS S3 存储桶、Google Cloud 存储桶和 Azure 存储桶中。 |
|
|
使用标准输出作为数据库转储的目标。 |
|
|
启用详细输出。 |
|
示例
以下示例演示了如何使用neo4j-admin database dump
命令转储数据库。该命令创建一个名为database.dump 的文件,其中database
是在命令中指定的数据库。
|
将默认数据库neo4j
转储到本地目录
您可以使用以下命令在本地目录中创建默认数据库neo4j
的转储。目标目录必须在运行命令之前存在,并且数据库必须处于离线状态。
bin/neo4j-admin database dump neo4j --to-path=/full/path/to/dumps
将数据库转储到云存储中的文件夹
以下示例演示了如何使用--to-path
选项将数据库转储到云存储桶中。
Neo4j 使用 AWS SDK v2 通过 AWS URL 调用 AWS 上的 API。或者,您可以覆盖端点,以便 AWS SDK 可以使用系统变量 |
-
按照 AWS 官方文档中的说明安装 AWS CLI — 安装 AWS CLI 版本 2。
-
使用 AWS CLI 创建一个 S3 存储桶和一个用于存储备份文件的目录
aws s3 mb --region=us-east-1 s3://myBucket aws s3api put-object --bucket myBucket --key myDirectory/
有关如何创建存储桶和使用 AWS CLI 的更多信息,请参见 AWS 官方文档 — 使用 AWS CLI 与 Amazon S3 和 使用 AWS CLI 的高级(s3)命令。
-
通过运行以下命令验证
~/.aws/config
文件是否正确cat ~/.aws/config
输出应如下所示
[default] region=us-east-1
-
通过在
~/.aws/credentials
文件中设置aws_access_key_id
和aws_secret_access_key
,并在需要时使用存储桶策略来配置对 AWS S3 存储桶的访问。例如-
使用
aws configure set aws_access_key_id aws_secret_access_key
命令从 AWS 设置您的 IAM 凭据,并验证~/.aws/credentials
是否正确cat ~/.aws/credentials
输出应如下所示
[default] aws_access_key_id=this.is.secret aws_secret_access_key=this.is.super.secret
-
此外,您可以使用基于资源的策略来授予对 S3 存储桶及其中的对象的访问权限。使用以下内容创建一个策略文档,并将其附加到存储桶。请注意,这两个资源条目对于能够下载和上传文件都很重要。
{ "Version": "2012-10-17", "Id": "Neo4jBackupAggregatePolicy", "Statement": [ { "Sid": "Neo4jBackupAggregateStatement", "Effect": "Allow", "Action": [ "s3:ListBucket", "s3:GetObject", "s3:PutObject", "s3:DeleteObject" ], "Resource": [ "arn:aws:s3:::myBucket/*", "arn:aws:s3:::myBucket" ] } ] }
-
-
运行
neo4j-admin database dump
命令将您的数据库转储到 AWS S3 存储桶中bin/neo4j-admin database dump mydatabase --to-path=s3://myBucket/myDirectory/
-
确保您拥有 Google 帐户,并在 Google Cloud Platform (GCP) 中创建了项目。
-
按照 Google 官方文档中的说明安装
gcloud
CLI — 安装 gcloud CLI。 -
使用 Google 官方文档创建服务帐户和服务帐户密钥 — 创建服务帐户 和 创建和管理服务帐户密钥。
-
下载服务帐户的 JSON 密钥文件。
-
将
GOOGLE_APPLICATION_CREDENTIALS
和GOOGLE_CLOUD_PROJECT
环境变量分别设置为 JSON 密钥文件的路径和项目 IDexport GOOGLE_APPLICATION_CREDENTIALS="/path/to/keyfile.json" export GOOGLE_CLOUD_PROJECT=YOUR_PROJECT_ID
-
使用您创建的服务帐户的电子邮件地址、JSON 密钥文件的路径和项目 ID 来验证
gcloud
CLIgcloud auth activate-service-account service-account@example.com --key-file=$GOOGLE_APPLICATION_CREDENTIALS --project=$GOOGLE_CLOUD_PROJECT
有关更多信息,请参见 Google 官方文档 — gcloud auth activate-service-account。
-
使用 Google 官方文档在 Google Cloud Storage 中创建存储桶 — 创建存储桶。
-
通过运行以下命令验证存储桶是否已创建
gcloud storage ls
输出应列出已创建的存储桶。
-
-
运行
neo4j-admin database dump
命令将您的数据库转储到 Google 存储桶中bin/neo4j-admin database dump mydatabase --to-path=gs://myBucket/myDirectory/
-
确保您拥有 Azure 帐户、Azure 存储帐户和 Blob 容器。
-
您可以使用 Azure 门户创建存储帐户。
有关更多信息,请参见 Azure 官方文档中的创建存储帐户。 -
在 Azure 门户中创建 Blob 容器。
有关更多信息,请参见 Azure 官方文档中的快速入门:使用 Azure 门户上传、下载和列出 Blob。
-
-
按照 Azure 官方文档中的说明安装 Azure CLI — Azure 官方文档。
-
使用默认 Azure 凭据将 neo4j 或 neo4j-admin 进程验证到 Azure。
有关更多信息,请参见 Azure 官方文档中的默认 Azure 凭据。az login
然后,您应该准备好使用 Azure URL 在 neo4j 或 neo4j-admin 中。
-
要验证您是否可以使用登录凭据访问该容器,请运行以下命令
# Upload a file: az storage blob upload --file someLocalFile --account-name accountName - --container someContainer --name remoteFileName --auth-mode login # Download the file az storage blob download --account-name accountName --container someContainer --name remoteFileName --file downloadedFile --auth-mode login # List container files az storage blob list --account-name someContainer --container someContainer --auth-mode login
-
运行
neo4j-admin database dump
命令将您的数据库转储到 Azure 容器中bin/neo4j-admin database dump mydatabase --to-path=azb://myStorageAccount/myContainer/myDirectory/