robots.txtを使用してページネーションをブロックすることにより、Webサイト上のコンテンツの重複を回避しようとしていますが、URLには、ブロックできるURLにパラメーターが渡されていないことがわかります。数。例:
/category/sub-category/product/
/category/sub-category/product/1
/category/sub-category/product/2
/category/sub-category/product/3
上記の例では、1、2、および3で終わるURLはページネーションです。これらをブロックする方法についてのアイデアはありますか?これは理想的な解決策ではないため、すべての数字を単にブロックしたくありません。
ページネーションでコンテンツが重複する可能性がある場合、アイデアはrobots.txtでページネーションURLをブロックするのではなく、異なるURLにrel="canonical"
タグを定義するだけです。
4つのURLについて、<head>
セクションでこのタグを定義します。
<link rel="canonical" href="http://www.example.com/category/sub-category/product/"/>