オフラインで表示するためにWebサイトのすべてのページをダウンロードまたはキャッシュするポータブルな方法はありますか?明日はクロスカントリーフライトがあり、いくつかのWebページ(特にpythonドキュメントページ( http://docs.python.org/))をキャッシュできるようにしたいと思います。 )、およびpyqtリファレンス( http://www.riverbankcomputing.co.uk/static/Docs/PyQt4/pyqt4ref.html )。
理想的にはFirefoxアドオンなどが欲しいのですが、Linuxで実行できる限り、何でも問題なく動作します。
HTTrack を使用します。
これにより、ワールドワイドウェブサイトをインターネットからローカルディレクトリにダウンロードし、すべてのディレクトリを再帰的に構築し、HTML、画像、およびその他のファイルをサーバーからコンピュータに取得できます。
これらのオプションでwgetを使用して、オフラインで使用するためにサイトをミラーリングします
wget -cmkE -np http://example.com/a/section/i/like
どこ
-mは、サイトをローカルでミラーリングするためのミラーリングオプションをオンにします
-cは、すでにいくつかのページをダウンロードした場合に備えて、以前のダウンロードを続行します
-kは、絶対hrefを変換して、オフラインで表示するためにローカルのものを指すようにします
-Eは、ダウンロード後にファイルの拡張子が.htmlであることを確認します。
-npは、/ a/section/i /の下のオブジェクトのみをダウンロードし、サイト全体をキャッシュしません。
たとえば、南のドキュメントをダウンロードしたかったのですが、南のチケットなどはダウンロードしませんでした...
wget -cmkE -np http://south.aeracode.org/docs/index.html
私はWindowsを使用し、cygwinでwgetを実行しますが、 ネイティブWindows wgetポート もあります。
ただし、あなたの場合は、pythonオフラインドキュメントを pythonドキュメントセクション からダウンロードできます。
http://www.downthemall.net/ Firefoxプラグインを試してください。私はこれを使用して、250ページのPDFを20以上の個別のファイルにダウンロードしました。それは非常に強力です。ワイルドカード/クエリ構文があり、必要なファイルのみを外科的に取得でき、無関係なファイルは取得できません。
私が知っているいくつかのFirefox拡張機能:
webページを保存し、コレクションを簡単に管理するのに役立ちます。主な機能は、軽さ、速度、正確さ、多言語サポートです。主な機能は次のとおりです。
- Webページを保存する
- Webページのスニペットを保存する
- Webサイトを保存する
- ブックマークと同じ方法でコレクションを整理します
- コレクションの全文検索とクイックフィルタリング検索
- 収集したWebページの編集
- Operaのメモに似たテキスト/ HTML編集機能
ScrapBook PlusとScrapBookの違い:
- より高速な並べ替え
- より高速なインポートとエクスポート
- ウィンドウを開いて、サイドバーから直接コレクションを管理します
- 「結合ウィザード」の処理を簡素化しました
- 「複数のURLをキャプチャ」の新機能(リンクを除外するフィルター、サイドバーのエントリの新しいタイトルとしてWebサイトのタイトルまたはリンクのタイトルを使用、0〜3秒のダウンロード間の待機時間を指定、UTF-8を使用)または文字セットとしてISO-8859-1)
- 新しい「キャプチャ」ウィンドウ(ダウンロードは手動で開始する必要があり、自動スクロールはオフになっています)
- エディターの6つの蛍光ペン
mHT(MHTML)Webアーカイブ形式のファイルを表示し、テキストやグラフィックを含む完全なWebページを単一のMHTファイルに保存できます。
Pocket (拡張機能ではなく、Firefoxの組み込み機能)
ワンクリックでWebページとビデオをPocketに保存できます。 Pocketは雑然としたものを取り除き、ページをすっきりとした気晴らしのないビューに保存し、Pocketアプリを介して外出先でそれらにアクセスできるようにします。
ご了承ください:
FirefoxでPocketリストに保存してアクセスするには、インターネット接続が必要です。 Pocketアプリを使用すると、他のデバイスでもオフラインで表示できます。
Wgetを使用して、Webサイト全体またはWebサイトの一部をダウンロードできます。
wget -r http://docs.python.org/
合格したい他のオプションについては、wgetのマニュアルを確認してください。帯域幅の使用を制限したり、再帰の深さを制御したり、除外リストを設定したりします。
オフラインブラウジングへの別のアプローチは、キャッシングプロキシを使用することです。 Wwwoffle は、サーバー指定の有効期限のオーバーライドや再帰的なプリフェッチ機能など、オフラインブラウジングの保持を容易にする多くの機能を備えたものです。 (私はダイヤルアップの日からwwwoffleを使用しています。)