毎週データベースをバックアップしなければならないのは面倒です。また、週次のバックアップを日次のバックアップに変更する必要があるとも考えています。私がそれをしなければならなかったなら、私はそれを手動でしたくありません。 PostgreSQLデータベースのバックアップを毎日自動化する最良の方法は何ですか?
自動化できる他の反復タスクの場合と同じです。バックアップを実行するスクリプトを記述し、それを実行するcronジョブを設定します。
たとえば、次のようなスクリプト:
(注:postgresユーザー、または同じ特権を持つ他のユーザーとして実行する必要があります)
#! /bin/bash
# backup-postgresql.sh
# by Craig Sanders <[email protected]>
# This script is public domain. feel free to use or modify
# as you like.
DUMPALL='/usr/bin/pg_dumpall'
PGDUMP='/usr/bin/pg_dump'
PSQL='/usr/bin/psql'
# directory to save backups in, must be rwx by postgres user
BASE_DIR='/var/backups/postgres'
YMD=$(date "+%Y-%m-%d")
DIR="$BASE_DIR/$YMD"
mkdir -p "$DIR"
cd "$DIR"
# get list of databases in system , exclude the tempate dbs
DBS=( $($PSQL --list --tuples-only |
awk '!/template[01]/ && $1 != "|" {print $1}') )
# first dump entire postgres database, including pg_shadow etc.
$DUMPALL --column-inserts | gzip -9 > "$DIR/db.out.gz"
# next dump globals (roles and tablespaces) only
$DUMPALL --globals-only | gzip -9 > "$DIR/globals.gz"
# now loop through each individual database and backup the
# schema and data separately
for database in "${DBS[@]}" ; do
SCHEMA="$DIR/$database.schema.gz"
DATA="$DIR/$database.data.gz"
INSERTS="$DIR/$database.inserts.gz"
# export data from postgres databases to plain text:
# dump schema
$PGDUMP --create --clean --schema-only "$database" |
gzip -9 > "$SCHEMA"
# dump data
$PGDUMP --disable-triggers --data-only "$database" |
gzip -9 > "$DATA"
# dump data as column inserts for a last resort backup
$PGDUMP --disable-triggers --data-only --column-inserts \
"$database" | gzip -9 > "$INSERTS"
done
# delete backup files older than 30 days
echo deleting old backup files:
find "$BASE_DIR/" -mindepth 1 -type d -mtime +30 -print0 |
xargs -0r rm -rfv
EDIT:pg_dumpall -D
スイッチ(27行目)は廃止され、--column-inserts
に置き換えられました
https://wiki.postgresql.org/wiki/Deprecated_Features
pg_dump dbname | gzip > filename.gz
でリロード
createdb dbname
gunzip -c filename.gz | psql dbname
または
cat filename.gz | gunzip | psql dbname
split
を使用します。 split
コマンドを使用すると、出力を、基礎となるファイルシステムで許容できるサイズに分割できます。たとえば、1メガバイトのチャンクを作成するには:
pg_dump dbname | split -b 1m - filename
でリロード
createdb dbname
cat filename* | psql dbname
あなたはそれらのうちの1つを/etc/cron.hourly
出典 http://www.postgresql.org/docs/8.1/interactive/backup.html#BACKUP-DUMP-ALL
「手動」で発行するコマンドは何でも、それらをスクリプトに書き込み、このスクリプトへの呼び出しをcronまたは使用するスケジューラーに配置します。
もちろん、スクリプトをもっと凝ったものにすることもできますが、一般的にはそこに到達すると思います。単純なものから始めて、後で改良してください。
最も簡単なスクリプト:
#!/bin/bash
/usr/local/pgsql/bin/pg_dumpall -U postgres -f /var/backups/backup.dump
/home/randell/bin/backup.shとして保存し、cronに追加します。
0 0 * * 0 /home/randell/bin/backup.sh
最小限のシステム負荷でクラスター全体をバックアップする場合は、postgresqlクラスターのルートディレクトリをtarするだけです。例えば:
echo "select pg_start_backup('full backup - `date`');" | psql
/usr/bin/rdiff-backup --force --remove-older-than 7D $BACKUP_TARGET
/usr/bin/rdiff-backup --include '/etc/postgresql' --include $PGDATA --exclude '/*' / $BACKUP_TARGET
/bin/tar -cjf /mnt/tmp/$SERVER_NAME.tbz2 $BACKUP_TARGET 2>&1
echo "select pg_stop_backup();" | psql
これがバックアップスクリプトの大部分です。
誰かがcygwinなどの助けなしにwindowsマシンでpostgresをバックアップしなければならない場合に備えて、私は非常にうまく機能するバッチファイルを持っています。
これにより、毎日データベースが自身のディレクトリにある個別のファイルにバックアップされます
set dtnm=%date:~-4,4%%date:~-7,2%%date:~0,2%
set bdir=D:\backup\%dtnm%
mkdir %bdir%
FOR /F "tokens=1,2 delims=|" %%a IN ('psql -l -t -A -U postgres') DO (
IF %%b EQU postgres pg_dump -U postgres -f %bdir%\%%a.sql.gz -Z 9 -i %%a
)