web-dev-qa-db-ja.com

開いているファイルが多すぎると重複が失敗しますか?

Duplicityの上にDuplyを使用していますが、gnupgで失敗するようです(100%CPUで10分後)

--- Start running command BKP 21:10:58.679 ---
NcFTP version is 3.2.2
Reading globbing filelist /root/.duply/offsite/exclude
Local and Remote metadata are synchronized, no sync needed.
Last full backup date: Wed May 11 09:26:47 2011
GPGError: GPG Failed, see log below:
===== Begin GnuPG log =====
gpg: can't open `/root/.gnupg/random_seed': Too many open files
gpg: fatal: can't open /dev/urandom: Too many open files
secmem usage: 3712/3712 bytes in 8/9 blocks of pool 4096/32768
===== End GnuPG log =====

私は何をすべきかについての手がかりがありませんか?

1
Paté

バグが発生しているのか、それとも一般的に多くの開いているファイルが必要なのかを把握する必要があります。あなたができることの1つは、うまくいけば失敗する直前に、実行の数分後にlsofから出力を取得することです。 lsof出力を見て、開いているファイルを確認します。ストック設定を使用している場合は、おそらくそれを増やす必要があります。

http://www.cyberciti.biz/faq/linux-increase-the-maximum-number-of-open-files/

1
polynomial