多くの場合、Webページをダウンロードしてからオフラインで編集する必要があります。いくつかのツールを試しましたが、それらのツールの主な機能は、CSSファイルで参照されている画像をダウンロードすることです。
Webページが同じオフライン(AJAXを除く)をレンダリングするようにすべてをダウンロードするツール(Linux用)はありますか?
wget --page-requisites http://example.com/your/page.html
このオプション を指定すると、Wgetは特定のhtmlページを適切に表示するために必要なすべてのファイルをダウンロードします。これには、インライン画像、サウンド、参照されたスタイルシートなどが含まれます。
編集:mederは正しい:ストックwgetはcss画像を解析およびダウンロードしません。ただし、この機能を追加するパッチがあります:[ 1 、 2 ]
更新:上記のパッチ wget 1.12にマージされました 、2009年9月22日リリース:
** Added support for CSS. This includes:
- Parsing links from CSS files, and from CSS content found in HTML
style tags and attributes.
- Supporting conversion of links found within CSS content, when
--convert-links is specified.
- Ensuring that CSS files end in the ".css" filename extension,
when --convert-links is specified.
Firefoxでこれを行うことができます。このフォームを参照してください
リファレンス- http://www.webdeveloper.com/forum/showthread.php?t=21261
wgetは最適な選択です。詳細については、Windowsのwgetバージョンでは、現時点で、wgetバージョン1.12のgnuの公式リリースはありません。現在のバージョンは1.11です
wgetバージョン1.11は、CSSファイル内の画像/フォントをダウンロードできません。幸いなことに、このページから1.14のビルドを見つけることができます。これらの問題を修正しました。
http://opensourcepack.blogspot.com/2010/05/wget-112-for-windows.html
Opera(12)の現在のバージョンでは、ページを 'HTML with images'として保存できます。
これによりOperaは、CSSファイルで参照される画像もダウンロードし、それに応じてCSSの画像URLを適合させます。
Firefoxの場合:
ファイル->ページを名前を付けて保存->ウェブページ、完了
すべてのjavascriptおよび画像とcssを保存します。他に何も必要ありません:)