HHTrackを使用してサイトをミラーリングしていましたが、しばらくの間実行され、次の内容を含むログで停止しました。
<snip>
Too many URLs, giving up..(>100000)
To avoid that: use #L option for more links (example: -#L1000000)
14:48:58 Info: Top index rebuilt (done)
すべてのページをミラーリングしなかったということですか?
すでにミラーリングされているファイルをコピーするのに不必要な時間を費やすことなく、ミラーリングを続行するにはどうすればよいですか?
URL制限を増やした後、中断されたダウンロード/ミラーリングを続行するアクションを使用します。
コマンドラインバージョンの場合:
Action options:
w *mirror web sites (--mirror)
W mirror web sites, semi-automatic (asks questions) (--mirror-wizard)
g just get files (saved in the current directory) (--get-files)
i continue an interrupted mirror using the cache
Y mirror ALL links located in the first level pages (mirror links) (--mirrorlinks)
GUIバージョンの場合: