Piwigo CMに基づいて構築されたこのウェブサイトから元のサイズの画像をダウンロードしたいと思います http://mermaid.pink/
単一のイメージのダウンロードは許可されますが、それには時間がかかりますソフトウェア、拡張機能、スクリプト、またはこのタスクが可能な他の何かを提案してもらえますか?
次のようにwget
を使用できます here :
Wgetを使用してWebサイト全体をダウンロードする
2008年9月5日HOW-TOのDashamir Hoxha著
おそらくオフラインで表示するためにWebサイト全体をダウンロードする必要がある場合、wgetがその仕事をすることができます。例えば:
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html/
このコマンドは、Webサイトをダウンロードします http://www.website.org/tutorials/html/ 。
オプションは次のとおりです。
--recursive
:Webサイト全体をダウンロードします。--domains website.org
:website.org以外のリンクをたどらないでください。--no-parent
:ディレクトリtutorials/html /以外のリンクをたどらないでください。--page-requisites
:ページを構成するすべての要素(画像、CSSなど)を取得します。--html-extension
:.html拡張子でファイルを保存します。--convert-links
:リンクをローカルでオフラインで動作するように変換します。--restrict-file-names=windows
:Windowsでも機能するようにファイル名を変更します。--no-clobber
:既存のファイルを上書きしないでください(ダウンロードが中断されて再開される場合に使用されます)。
これらのうち--page-requisites
と--recursive
が必要になる可能性がありますが、--convert-links
または--no-clobber
が役立つ場合があります。 wget
の使用の詳細については、man wget
を実行してください(または here をご覧ください)。
あなたの質問が画像を取得するので、これは私の解決策です
最初に画像を保存するフォルダーを作成してから、そのフォルダーにcdします
#terminal
mkdir imagesFolder
cd imagesFolder/
# this one will take a long time but will download
# every single image related to this website
wget -r -nd -H -p -A '*.jpg','*.jpeg','*.png' -e robots=off http://mermaid.pink/
#I recomend to use this one better as the images in this site are all jpg
# And recursion level is set to 1
wget -r -l 1 -nd -H -p -A '*.jpg' -e robots=off http://mermaid.pink/
-r | --recursive:
-l深さ| --level = depth:
-nd | --no-directories:
-H | --span-hosts:
-p | --page-requisites:
-A | --accept:
-e | --execute:
man wget
ありがとうT04435