Webサイトからすべてのページをダウンロードする方法
どのプラットフォームでも結構です。
HTTRACK は、サイト全体のコンテンツをコピーするためのチャンピオンのように機能します。このツールは、アクティブなコードコンテンツを含むWebサイトをオフラインで動作させるために必要なものをつかむことさえできます。オフラインで複製できることに驚きました。
このプログラムはあなたがそれを必要とするすべてをするでしょう。
ハッピーハンティング!
Wget はこの種のタスクのための古典的なコマンドラインツールです。ほとんどのUnix/Linuxシステムに同梱されていますが、Windowsでも入手できます。 Macでは、 自作 が最も簡単なインストール方法です(brew install wget
)。
次のようにします。
wget -r --no-parent http://site.com/songs/
詳しくは、 Wget Manual とその の例 をご覧ください。これら:
Wgetを使う:
wget -m -p -E -k www.example.com
オプションは説明した:
-m, --mirror Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites Get all images, etc. needed to display HTML page.
-E, --adjust-extension Save HTML/CSS files with .html/.css extensions.
-k, --convert-links Make links in downloaded HTML point to local files.
インターネットダウンロードマネージャ にはたくさんのオプションを備えたSite Grabberユーティリティがあります - あなたが望むウェブサイトを好きなように完全にダウンロードすることができます。
ダウンロードするページ/ファイルのサイズに制限を設定することができます
あなたが訪問するブランチサイトの数を設定することができます
あなたはスクリプト/ポップアップ/複製の振る舞いを変えることができます
ドメインを指定できます。そのドメインの下でのみ、必要な設定を満たすすべてのページ/ファイルがダウンロードされます。
リンクはブラウジングのためにオフラインリンクに変換することができます
あなたはあなたにあなたのために上記の設定を選択させるテンプレートを持っています
ソフトウェアは無料ではありません - それがあなたのニーズに合っているかどうかを確かめてください、評価版を使ってください。
Firefoxの拡張機能である ScrapBook をご覧ください。それは 詳細なキャプチャモード を持っています。
itsucks - これがプログラムの名前です。
私はブラウザが使用するオンラインバッファリングに対処します...
通常、ほとんどのブラウザはブラウジングキャッシュを使用して、Webサイトからダウンロードしたファイルをしばらく保持しているので、静止画像やコンテンツを何度もダウンロードする必要はありません。ある状況下ではこれは物事をかなりスピードアップすることができます。一般的に言って、ほとんどのブラウザキャッシュは固定サイズに制限されていて、その制限に達するとキャッシュ内の最も古いファイルを削除します。
ISPはESPNやCNNのようなよくアクセスされるWebサイトのコピーを保存するキャッシュサーバーを持つ傾向があります。これにより、ネットワーク上の誰かがアクセスするたびにこれらのサイトにアクセスする手間が省けます。これにより、ISPへの外部サイトへの重複要求の量を大幅に節約できます。
私は オフラインエクスプローラ が好きです。
これはシェアウェアですが、非常に優れていて使いやすいです。
私はこれを長年行っていませんが、まだいくつかのユーティリティがあります。 Web Snake を試してみるとよいでしょう。私はそれを数年前に使ったと思います。私はあなたの質問を読んだときにすぐにその名前を思い出しました。
私はStecyに同意します。彼らのサイトを邪魔しないでください。ひどい。
WebZip も良い製品です。
DownThemAll はFirefoxのアドオンで、特定のWebページのすべてのコンテンツ(たとえばオーディオファイルやビデオファイル)をワンクリックでダウンロードします。これはサイト全体をダウンロードするわけではありませんが、これは質問が探していたようなものかもしれません。
Teleport Pro は、あなたのターゲットが何であれ、そこからすべてのファイルをコピーする無料のソリューションです。コンテンツのページ)。
無料で強力なオフラインブラウザです。高速マルチスレッドWebサイトダウンロードおよび表示プログラム。複数の同時サーバーリクエストを行うことで、BackStreetブラウザは、HTML、グラフィック、Javaアプレット、サウンド、およびその他のユーザー定義可能ファイルを含むWebサイト全体またはサイトの一部を迅速にダウンロードし、すべてのファイルをネイティブフォーマットでハードドライブに保存できますまたは圧縮Zipファイルとしてオフラインで表示します。
由緒あるFreeDownloadManager.orgもこの機能を持っています。
Free Download Managerには、2つの形式の2つの形式があります。 Site ExplorerとSite Spider :
サイトエクスプローラ
サイトエクスプローラを使用すると、Webサイトのフォルダ構造を表示し、必要なファイルやフォルダを簡単にダウンロードできます。
HTMLスパイダー
HTML Spiderを使用すると、Webページ全体またはWebサイト全体をダウンロードできます。指定された拡張子のファイルのみをダウンロードするようにツールを調整できます。
サイトエクスプローラは、サイト全体をダウンロードしようとする前に、どのフォルダを含めたり除外したりするかを確認するのに役立ちます。特に、ダウンロードしたくないフォーラムがサイト内に隠れている場合は特にそうです。
Wgetは既にこのリソースとコマンドラインに言及されているので、私はそれが言及に値すると思った:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/