Webサイトのソースコードファイル(html、css、phpファイルのトン)を含むフォルダーがあります。このフォルダーを再帰的にスキャンし、これらのファイルに含まれるURLのリストを取得する自動方法(コマンドラインツールを使用することが望ましい)を見つけたいと考えています。
findとgrepおよびいくつかの正規表現で可能だと思いますが、これらのコマンドの組み合わせについての知識は限られています。
基本的に、CMEまたはインストールされたプラグインのコードに「隠された」URL呼び出し(データリーク、バックドア、またはシークレットダウンロード機能)があるかどうかを確認する良い方法です。
Grepコマンドを使用して、ドキュメントのhttp
を再帰的に検索します。
(よく覚えていれば)
grep -r http ./var/html/index.php
grep -r
は再帰検索を強制しますが、他の方法も使用できる場合は、grep --help
と入力して表示します。http
は検索する文字列で、/var/html/index.php
はファイルが置かれているディレクトリです。
Notepad ++は、ボタンを1回押すだけでこのジョブを実行できます。サブフォルダーを含む特定のフォルダーでhttp
を検索すると、Notepad ++はすべての検出結果のリストを作成します。
確かにこれを行うための多くの方法がありますが、これはこれよりもビザンチンです。