現在、私のサイト(スパム)に大量の紹介トラフィックを受け取っていますが、1日あたり1 GBから1 GBのトラフィックを生成する場合があります(ホスティング会社から10 GBの制限がある場合、これは少しひどいです)。
1日あたり4〜5000ヒットし、20〜25000ページビューを生成しています。トラフィック制限を超えているため、サイトが閉じられないように、ほぼ毎日新しいサイトを.htaccessファイルに追加する必要があるようです。 。
ログに表示される内容から、ブロックするサイトを追加するたびに、トラフィックは数時間以内に新しいサイトから送信され始めます。
現在、私の.htaccessファイルの一部を次に示します。
RewriteEngine On
RewriteCond %{HTTP_REFERER} ^http://www\.everyoneweb\.com [OR]
RewriteCond %{HTTP_REFERER} ^http://freefilearchive\.com [OR]
RewriteCond %{HTTP_REFERER} ^http://4runnerforex\.com [OR]
RewriteCond %{HTTP_REFERER} ^http://www\.julznakomua\.strefa\.pl [OR]
RewriteCond %{HTTP_REFERER} ^http://drugbuyersforum\.org [OR]
RewriteCond %{HTTP_REFERER} ^http://protopage\.com [OR]
RewriteCond %{HTTP_REFERER} ^http://stupidvideos\.com [OR]
RewriteCond %{HTTP_REFERER} ^https://sourceforge\.net [OR]
RewriteCond %{HTTP_REFERER} ^http://www\.sourceforge\.net [OR]
RewriteCond %{HTTP_REFERER} ^http://www\.thoughts\.com [OR]
RewriteCond %{HTTP_REFERER} ^http://www\.youfreeweb\.com [OR]
RewriteCond %{HTTP_REFERER} ^http://www\.facebook\.com\\notes\\phentermine [OR]
RewriteCond %{HTTP_REFERER} ^http://theresaraatt\.over-blog\.com [OR]
RewriteCond %{HTTP_REFERER} ^http://grou\.ps [OR]
RewriteCond %{HTTP_REFERER} ^http://www\.reverbnation\.com
RewriteRule (.*) http://%{REMOTE_ADDR}/$ [R=301,L]
order allow,deny
deny from 109.227.125.
deny from 109.227.124.
allow from all
誰かが私にやってくるすべてのトラフィックについて、何ができるのか考えていますか?
http://aaronlogan.com/downloads/htaccess.php にアクセスして、htaccessにリファラースパムブロックの非常に大きなリストを作成できます。または、次のようなものを使用できます
# set the spam_ref variable - referrer site or a keyphrase
SetEnvIfNoCase Referer "^http://(www.)?some-spammer.com" spam_ref=1
SetEnvIfNoCase Referer "^http://(www.)?other-spammer.com" spam_ref=1
SetEnvIfNoCase Referer "^casino-poker" spam_ref=1
# block all referres that have spam_ref set
<FilesMatch "(.*)">
Order Allow,Deny
Allow from all
Deny from env=spam_ref
</FilesMatch>
または、phpを使用している場合。
<?php
$block = array("xxx.xxx.xxx.xxx", "yy.yy.y.yyy");
if (in_array ($_SERVER['REMOTE_ADDR'], $block)) {
header("Location: http://google.com/");
exit();
}
?>
いずれにせよ、必要に応じて更新して更新する必要があります。そして、リストは膨大になる可能性があります。
これが referrer spam の例である場合、長期的に停止する方法は、ログファイルが検索エンジンによってインデックス付けされていないことを確認することです。これにより、これはスパマーにとって価値のない演習となり、最終的にはこれに取り組み、やめます。
このような帯域幅の盗用は、Webで一般的です。ウェブサイトとそのサブドメインと既知のドメインを除き、ウェブサイトファイル(画像、動画など)に対するすべてのリクエストを拒否できます。
リクエストが特別なIPからのものである場合、ブロックできます!
それ以外の場合は、すべてのWebページの場合、あなたがしていることは唯一の選択です!
同様の問題に対処する場合、私は found すべてのリクエストに偽の、またはありそうもないUser-Agent文字列の小さなバリエーションが含まれていることを確認しました。
Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; Media Center PC 6.0; InfoPath.2; MS-RTC LM 8)
Mozilla/5.0 (Windows; U; Windows NT 5.1; de; rv:1.9.1.3) Gecko/20090824 Firefox/3.5.3 (.NET CLR 3.5.30729)
Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.2 (KHTML, like Gecko) Chrome/4.0.221.7 Safari/532.2
Mozilla/5.0 (Windows; U; Windows NT 5.1; pl; rv:1.9.1.3) Gecko/20090824 Firefox/3.5.3
Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.04506.30)
Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; en) Opera 8.50
Mozilla/5.0 (Windows; U; Windows NT 6.1; en-GB; rv:1.9.1.3) Gecko/20090824 Firefox/3.5.3
Opera/9.64(Windows NT 5.1; U; en) Presto/2.1.1
Mozilla/5.0 (X11; U; Linux i686; it-IT; rv:1.9.0.2) Gecko/2008092313 Ubuntu/9.25 (jaunty) Firefox/3.8
Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.9.0.14) Gecko/2009082707 Firefox/3.0.14 (.NET CLR 3.5.30729)
同じことがケースに当てはまる場合、それらの偽のUAからのリクエストをブロックできます。