Wgetを使用して公開ウェブサイトの画像を取得するにはどうすればよいですか?巨大なサイトではありません。約40ページあり、1ページあたり約3つの画像があります。
避けたい:
何か案は?
Wgetを使用して、画像ファイルのみをダウンするように指示するか、 http://www.downthemall.net/ を使用できます。
から http://www.delorie.com/gnu/docs/wget/wget_31.html
HTTPサーバー上のディレクトリからすべてのGIFをダウンロードしたいとします。 `wget http://www.server.com/dir/ *。gif 'を試しましたが、HTTP取得がグロブをサポートしていないため、機能しませんでした。その場合は、次を使用します。
_wget -r -l1 --no-parent -A.gif http://www.server.com/dir/
_
より冗長ですが、効果は同じです。 -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1.
-- no-parent 'は、親ディレクトリへの参照が無視されることを意味し(セクション4.3ディレクトリベースの制限を参照)、_-A.gif' means to download only the GIF files.
_-「*。gif」も機能します。 。
Ifetchという名前のutilを作成しました。試してみてください。 http://sourceforge.net/p/ifetch/wiki/Home/
this を参照してください。
2番目のテンプレートはウェブサイトのすべての写真です。それがあなたが望んでいたことだと思いますか?
オンライン画像バッチダウンロード1.1.0 (Firefoxアドオン)