私は多くのフォルダーとファイルを含む多くのサブフォルダーを持つwebディレクトリがあります。
wgetまたはbashを使用してすべてをダウンロードする必要があります。
試してください:wget -r
が機能するかどうかを確認します。
最善の方法は:
wget -m <url>
これはwget "mirror"の略です:
-m, --mirror shortcut for -N -r -l inf --no-remove-listing.
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
このコマンドは、Webサイトwww.website.org/tutorials/html/をダウンロードします。
オプションは次のとおりです。
または、Ask Ubuntuの 解決策を試してください。
wget --recursive
(または何でも)がうまくいきませんでした(私はCentOSを使っています)。 lftp
やった:
lftp -c "open http://your.server/path/to/directory/; mirror"
Wget Recursive Retrieval を参照してください。
wget -r -l 5 -O whatever http://example.com/
あなたはウェブディレクトリを持っていますか?リモートマシン上にあり、HTTP経由でのみアクセスできますか、それともシェルアクセスがありますか? bashプロンプトからwgetを使用するつもりでない限り、bashについての言及はシェルアクセスを意味します。
Wgetは必ずしも非常に効率的ではないため、Webディレクトリが置かれているマシンへのShellアクセスがあり、それをダウンロードしたい場合は、これを行うことができます
$ tar cjf webdir.tar.bz2 webdir
次に、ftpまたはscpでアーカイブを転送します。
FTPアカウントを持っている場合は、次のことも試すことができます。
lftp USER:PASSWORD@FTPSERVER -e "mirror&&exit"