私はIAとして、サイトの詳細なコンテンツインベントリを頻繁に取得し、ページタイトル、URL、METAキーワード(例を挙げると)などの基本的なものをキャプチャします。
どのようなプログラムで人々は成功を収めていますか?
私は以下のものをすべて使用しました:
Xenu(生データの取得に最適)
Excel(小規模なサイトをインベントリするための試行済みですが、本当の方法)
MindJet(クライアント向けサイトマップ、新興サイトのモデル化と完成に使用)。
他にどんなものがありますか?
私はさまざまな手法を試しましたが(他の人からの新しいツールや方法について聞いてワクワクしています)、現在の主なアプローチは、まず Website Auditor (はい、ウェブサイトはちょっとあいまいに見えますが、ツールは優れています。このアプリはサイト構造をクロールし、タイトル、URL、メタタグ、リダイレクト、リンク切れなどのネストされた階層ビューを提供します。また、HTMLコードエラーやページランクなどのより高度な処理を実行できますが、これらは使用しません非常に頻繁に。現在、これを参照データとして使用し、それを OmniGraffle のビジュアルサイトマップに手動で変換していますが、より自動化されたプロセスを開発できると確信しています。
何かを見逃さないようにするために、コンテンツ管理システムを介してファイル自体も確認しますが、私は社内の担当者であるため、代理店よりもそのようなものにアクセスできる可能性が高くなります。
または、 Site Sucker for Mac (無料)を使用してサイト全体のローカルコピーをダウンロードし、ログファイルをコンテンツインベントリとして使用しました。ただし、ネストされたビューや、前述のWebsite Auditorのその他の機能が生成されないため、それほど有用ではありません。そのため、これは間違いなく「貧乏人のツール」です。