WebページのすべてのPDFリンクをダウンロードするための優れたソフトウェアをご存知ですか??
オペレーティングシステムはWindows 7です。
wget を使用して、次のようなコマンドを実行できます。
wget --recursive --level=1 --no-directories --no-Host-directories --accept pdf http://example.com
または短いオプションで:
wget -r -l 1 -nd -nH -A pdf http://example.com
更新:更新ではWindows 7を実行していると記載されているため、cmd
プロンプトから Windowsの場合はwget を使用します。
更新2:グラフィカルなソリューションの場合-他のファイルも取得するため、やり過ぎかもしれませんが DownThemAll
ブラウザで、 CTRL+SHIFT+J、入力
var pdflinks = []; Array.prototype.map。 call(document.querySelectorAll( "a [href $ = \"。pdf\"]")、function(e、i){if((pdflinks || [])。indexOf(e.href)==-1) {pdflinks.Push(e.href);}}); console.log(pdflinks.join( ""));
これはコンソールに戻ります:
" https://superuser.com/questions/tagged/somepdf1.pdf " " https://superuser.com/questions/tagged/somepdf2.pdf " "- https://superuser.com/questions/tagged/somepdf3.pdf "
wget
をコマンドラインオプションwget url1 url2 ...
とともに使用する
これをコピーして貼り付け、コンソールを開いてwget
と入力し、マウスの右ボタンを押してクリップボードのコンテンツを挿入し、Enterキーを押します。
ダウンロードファイルを使用するには、「\ n」で行を結合し、次のようにパラメーターを使用しますwget -i mydownload.txt
他のほとんどの(GUI)ダウンロードプログラムも、スペースで区切られたURLのリストで呼び出すことができます。
お役に立てれば。これが私が一般的に行う方法です。これは、グラフィカルUIを備えたどの拡張機能よりも高速で柔軟性があるため、習得して慣れる必要があります。
ブラウザーにとどまりたい場合は、まさにこの目的のためにWeb拡張機能を作成しました-私は、適切にフォーマットされたタイトルで学術論文のPDFを保存する機能を追加する作業をしていますが、ダウンロードしたい場合は、それだけで完璧ですこのため。
これはTab Saveと呼ばれ、Chromeウェブストア here にあります。すべてをタブで開くだけの場合は、URLのリストを入力する必要もあります(ただし、ファイルの数が多いと、コンピューターの速度が低下する可能性があるため、独自のURLを追加するオプションを追加しました)。
Google Chromeでは、次のような拡張機能を使用できます。
この拡張機能を使用すると、アクセスしているWebページにリンクされているすべての画像、動画、pdf、doc、およびその他のファイルをダウンロードできます。
私は最近これに Get (Windowsの場合)を使用しました。 GUIがあり、ダウンロードするファイルをフィルタリングできます。
それらすべてを覚えようとする節約
Pythonダウンロードを可能にするツールはほとんどありませんPDF Google検索結果に基づくWebサイトからのリンクです。
例えば。
google_dl
スクリプト (推奨)。
使用法:
./google_dl -s http://www.example.com/ -f pdf ""
gsrchDwn
script ( neoのスクリプト に基づく)。
使用法:
./gsrchDwn.py --query "site:http://www.example.com/" --ftype pdf
注:私は上記の両方のスクリプトのメンテナーです。
どちらも xgoogle
Pythonライブラリを実装しています。このライブラリの私のフォークは pkrumins/xgoogle
バージョン 。
関連: LinuxコマンドラインからのWeb検索 。