ビデオサイトを次のように構成しました。
/ (root)
index.html
-/videos
-/video-id1 (dynamically generated subdirectory when user uploads a video)
/index.html (dynamically generated file when user uploads a video)
サブディレクトリとその中のファイルは、ユーザーがビデオをアップロードするたびに動的に作成されます。 PHPを使用すると、各ページの作成後にサイトマップを動的に編集できるため、sitemap.xml
を使用すると、検索エンジンでこれらのファイルのインデックスを作成するのに適した選択肢になると思いました。しかし、これは非常に困難です(XMLドキュメントであるため)。
そこで、サイトマップの代わりにrobots.txt
を使用してインデックスを作成することを考えましたが、これは役に立ちますか?
言い換えれば、動的に作成されたサブディレクトリとファイルを検索エンジンに送信する方法を理解しようとしていますか?別の例としてStack Exchangeを使用すると、ユーザーが質問するたびにこのような質問が検索エンジンにどのようにリストされますか?
here に見られるように、すべての質問にsitemap.xml
を使用していると思います。
両方を使用する必要があります。
両方のテクニックcanは、can検索エンジンから尊重されます–ただし、sitemap.xmlおよびrobots.txtに記載されている指示に従う必要はありません。したがって、どちらにも依存しないでください。ただし、両方を使用してください。
さらに、新しいファイルがアップロードされるたびに、または実際にトリガーするたびに、phpを使用してsitemap.xmlを生成することもお勧めします。これにより、a)リストの内容、使用する順序、使用するタグを100%制御できます。b)クローラーがアクセスするたびにレンダリングする必要がある静的ファイルよりも優れた静的ファイルであると考えます。
PS:anythingをクロールから除外したくない場合でも、とにかくrobots.txtを使用することをお勧めします。これは多くの異なる状況で非常に役立つからです。 …
PHPを使用すると、各ページの作成後にサイトマップを動的に編集できるため、検索エンジンでこれらのファイルのインデックスを作成するには、sitemap.xmlを使用することをお勧めします。しかし、これは非常に困難です(XMLドキュメントであるため)。
思っているほど難しくありません。 PHPを使用すると、動的な方法でXMLを作成し、次のヘッダーで出力できます。
header("Content-type: text/xml");
つまり、データベースから動的ページを選択し、XML構造を作成して、上記のヘッダーで出力します。次に、PHPスクリプトへのリンクをGoogleウェブマスターに提供します。
PHPでXMLファイルを編集する必要はありません。
ロボットファイルは、検索エンジンなどに、どこに行くべきか、さらには何を避けるべきかを伝えます。サイトマップは、検索エンジンにサイトの構造と、おそらく発見しにくいページやパスを見つける方法を伝えます。あなたの場合、サイトマップを設定する必要があるようです。
XMLサイトマップの作成が複雑すぎると思われる場合は、プレーンテキストファイルでサイトマップを作成することもできます。この形式ではすべての追加機能が提供されるわけではありませんが、インデックスを作成するすべてのURLのみをリストする場合は十分です。
http://www.sitemaps.org/protocol.html#otherformats を参照してください
UTF-8。 1行に1つの絶対URL。他に何もありません。
したがって、次のようになります。
http://example.com/
http://example.com/videos
http://example.com/videos/video-id1
http://example.com/videos/video-id2
http://example.com/videos/video-id3