非常に大量の比較的小さなファイルを含むFTPサイト(実際にはWebサイトのソースコード)をダウンロードする必要があります(FileZillaでダウンロードするには1日以上かかりましたが、多くのファイルが一度)。残念ながら、サイトへのSSHアクセスはなく、サーバー側でファイルをアーカイブする方法もありません。
したがって、少なくとも質問は、コマンドラインツールを使用してFTPサイト全体をフォルダーにダウンロードする方法です。 1つではなく多くのファイルを同時にダウンロードすることで、ダウンロードを並列化できればさらに良いでしょう。
以下を試してください:
wget -r ftp://username:[email protected]
これは5つの深さレベルになります。増やすには、-l
オプションを追加します
一部のサーバーはこの動作が気に入らず、サーバーの負荷のためにブラックリストに登録されるリスクがあります。これを回避するには、-w
オプションを使用して、指定された秒数待機します。
詳細情報(および警告)はここにあります:
http://www.gnu.org/software/wget/manual/wget.html#Recursive-Download
http://linuxreviews.org/quicktips/wget/
--user
および--password
引数は、特殊文字を含むユーザー名/パスワードに役立ちます。