URLからWebサイトをダウンロードして、ローカルで表示したいのですが、より正確には次のようになります。
pdf
およびZip
タイプの直接リンクされたすべてのファイルをダウンロードします。私はすべてのLinuxベースのツールを利用できます(macports
サポートはいいです)。今のところwget
を使用してもうまくいきませんでした。
編集:wget -E -H -k -K -p
は私が欲しいものに近いですが、どうすればPDFおよびZipファイルを含めることができますか? (出典: Stackoverflow )
試してください:
wget -r -k -l 1 --mirror yourSITE
-r
と--mirror
の理由:
-r
:cuased wget
は再帰的に動作します。
--mirror
:ミラーサイトなどのwgetの動作を指示しました。必要な場合もあります。
-k
:単一のドキュメント
-l 1
:レベル1、1レベルを再帰的に。
試しましたか wget -rk -l 1 <sitename>
または類似?リンクを相対パスに変換しながら、コンテンツを再帰的にフェッチする必要があります。最終結果は、必要以上の.htmlファイルになる可能性がありますが、通常は閲覧できるはずのindex.htmlを除いて、すべて削除できます。