Pythonで書かれたクローラーを使用してWebサイトをクロールしようとしています。 TorをPythonと統合したいということは、Torを使用して匿名でサイトをクロールすることを意味します。
これをやってみました。うまくいかないようです。 IPをチェックしましたが、torを使用する前と同じです。 pythonで確認しました。
import urllib2
proxy_handler = urllib2.ProxyHandler({"tcp":"http://127.0.0.1:9050"})
opener = urllib2.build_opener(proxy_handler)
urllib2.install_opener(opener)
SOCKSポートに接続しようとしています-Torは、SOCKS以外のトラフィックを拒否します。ポート8118を使用して、ミドルマン(Privoxy)を介して接続できます。
例:
proxy_support = urllib2.ProxyHandler({"http" : "127.0.0.1:8118"})
opener = urllib2.build_opener(proxy_support)
opener.addheaders = [('User-agent', 'Mozilla/5.0')]
print opener.open('http://www.google.com').read()
また、ProxyHandlerに渡されるプロパティに注意してください。ip:portの前にhttpを付けません
pip install PySocks
次に:
import socket
import socks
import urllib2
ipcheck_url = 'http://checkip.amazonaws.com/'
# Actual IP.
print(urllib2.urlopen(ipcheck_url).read())
# Tor IP.
socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, '127.0.0.1', 9050)
socket.socket = socks.socksocket
print(urllib2.urlopen(ipcheck_url).read())
https://stackoverflow.com/a/2015649/895245 のようにurllib2.ProxyHandler
だけを使用すると、次のように失敗します。
Tor is not an HTTP Proxy
言及: SOCKS 4/5プロキシをurllib2で使用するにはどうすればよいですか?
Ubuntu 15.10、Tor 0.2.6.10、Python 2.7.10。でテスト済み.
次のコードは、Python 3.4
(このコードを使用してTORブラウザを開いたままにしておく必要があります)
このスクリプトはsocks5を介してTORに接続し、checkip.dyn.comからIPを取得し、IDを変更し、新しいIPを取得するためにリクエストを再送信します(10回ループします)
これを機能させるには、適切なライブラリをインストールする必要があります。 (楽しんで悪用しないでください)
import socks
import socket
import time
from stem.control import Controller
from stem import Signal
import requests
from bs4 import BeautifulSoup
err = 0
counter = 0
url = "checkip.dyn.com"
with Controller.from_port(port = 9151) as controller:
try:
controller.authenticate()
socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, "127.0.0.1", 9150)
socket.socket = socks.socksocket
while counter < 10:
r = requests.get("http://checkip.dyn.com")
soup = BeautifulSoup(r.content)
print(soup.find("body").text)
counter = counter + 1
#wait till next identity will be available
controller.signal(Signal.NEWNYM)
time.sleep(controller.get_newnym_wait())
except requests.HTTPError:
print("Could not reach URL")
err = err + 1
print("Used " + str(counter) + " IPs and got " + str(err) + " errors")
次の解決策はPython 3で機能します。 CiroSantilliの answer から適応
urllib
(Python 3)のurllib2の名前):
import socks
import socket
from urllib.request import urlopen
url = 'http://icanhazip.com/'
socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, '127.0.0.1', 9150)
socket.socket = socks.socksocket
response = urlopen(url)
print(response.read())
requests
の場合:
import socks
import socket
import requests
url = 'http://icanhazip.com/'
socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, '127.0.0.1', 9150)
socket.socket = socks.socksocket
response = requests.get(url)
print(response.text)
Selenium
+ PhantomJSの場合:
from Selenium import webdriver
url = 'http://icanhazip.com/'
service_args = [ '--proxy=localhost:9150', '--proxy-type=socks5', ]
phantomjs_path = '/your/path/to/phantomjs'
driver = webdriver.PhantomJS(
executable_path=phantomjs_path,
service_args=service_args)
driver.get(url)
print(driver.page_source)
driver.close()
注:Torを頻繁に使用する場合は、 寄付 を作成して、すばらしい作業をサポートすることを検討してください!
Pythonのtorプロキシを使用してファイルをダウンロードするためのコードは次のとおりです:(update url)
import urllib2
url = "http://www.disneypicture.net/data/media/17/Donald_Duck2.gif"
proxy = urllib2.ProxyHandler({'http': '127.0.0.1:8118'})
opener = urllib2.build_opener(proxy)
urllib2.install_opener(opener)
file_name = url.split('/')[-1]
u = urllib2.urlopen(url)
f = open(file_name, 'wb')
meta = u.info()
file_size = int(meta.getheaders("Content-Length")[0])
print "Downloading: %s Bytes: %s" % (file_name, file_size)
file_size_dl = 0
block_sz = 8192
while True:
buffer = u.read(block_sz)
if not buffer:
break
file_size_dl += len(buffer)
f.write(buffer)
status = r"%10d [%3.2f%%]" % (file_size_dl, file_size_dl * 100. / file_size)
status = status + chr(8)*(len(status)+1)
print status,
f.close()
Update-最新(v2.10.0以降) requests
ライブラリは追加要件のあるソックスプロキシをサポート requests[socks]
。
インストール-
pip install requests requests[socks]
基本的な使用法-
import requests
session = requests.session()
# Tor uses the 9050 port as the default socks port
session.proxies = {'http': 'socks5://127.0.0.1:9050',
'https': 'socks5://127.0.0.1:9050'}
# Make a request through the Tor connection
# IP visible through Tor
print session.get("http://httpbin.org/ip").text
# Above should print an IP different than your public IP
# Following prints your normal public IP
print requests.get("http://httpbin.org/ip").text
古い回答-これは古い投稿ですが、誰も requesocks
に言及していないようだから答えます=ライブラリ。
基本的には requests
ライブラリのポートです。ライブラリは古いフォーク(最終更新2013-03-25)であり、最新のリクエストライブラリと同じ機能を持たない可能性があることに注意してください。
インストール-
pip install requesocks
基本的な使用法-
# Assuming that Tor is up & running
import requesocks
session = requesocks.session()
# Tor uses the 9050 port as the default socks port
session.proxies = {'http': 'socks5://127.0.0.1:9050',
'https': 'socks5://127.0.0.1:9050'}
# Make a request through the Tor connection
# IP visible through Tor
print session.get("http://httpbin.org/ip").text
# Above should print an IP different than your public IP
# Following prints your normal public IP
import requests
print requests.get("http://httpbin.org/ip").text
Torの前でhttp-proxyとしてprivoxyを使用するとうまくいきます-これがクローラーテンプレートです:
import urllib2
import httplib
from BeautifulSoup import BeautifulSoup
from time import sleep
class Scraper(object):
def __init__(self, options, args):
if options.proxy is None:
options.proxy = "http://localhost:8118/"
self._open = self._get_opener(options.proxy)
def _get_opener(self, proxy):
proxy_handler = urllib2.ProxyHandler({'http': proxy})
opener = urllib2.build_opener(proxy_handler)
return opener.open
def get_soup(self, url):
soup = None
while soup is None:
try:
request = urllib2.Request(url)
request.add_header('User-Agent', 'foo bar useragent')
soup = BeautifulSoup(self._open(request))
except (httplib.IncompleteRead, httplib.BadStatusLine,
urllib2.HTTPError, ValueError, urllib2.URLError), err:
sleep(1)
return soup
class PageType(Scraper):
_URL_TEMPL = "http://foobar.com/baz/%s"
def items_from_page(self, url):
nextpage = None
soup = self.get_soup(url)
items = []
for item in soup.findAll("foo"):
items.append(item["bar"])
nexpage = item["href"]
return nextpage, items
def get_items(self):
nextpage, items = self._categories_from_page(self._START_URL % "start.html")
while nextpage is not None:
nextpage, newitems = self.items_from_page(self._URL_TEMPL % nextpage)
items.extend(newitems)
return items()
pt = PageType()
print pt.get_items()
おそらく、ネットワーク接続の問題がありますか?上記のスクリプトは私のために機能しました(別のURLに置き換えました-http://stackoverflow.com/
-期待どおりにページが表示されます。
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd" >
<html> <head>
<title>Stack Overflow</title>
<link rel="stylesheet" href="/content/all.css?v=3856">
(等。)
私のために働いた解決策を共有するだけだと思った(python3、windows10):
ステップ1:9151
でTor ControlPortを有効にします。
Torサービスは、デフォルトのポート9150
および9151
のControlPortで実行されます。 127.0.0.1:9150
を実行すると、ローカルアドレス127.0.0.1:9151
およびnetstat -an
が表示されるはずです。
[go to windows terminal]
cd ...\Tor Browser\Browser\TorBrowser\Tor
tor --service remove
tor --service install -options ControlPort 9151
netstat -an
ステップ2:Python script as following。
# library to launch and kill Tor process
import os
import subprocess
# library for Tor connection
import socket
import socks
import http.client
import time
import requests
from stem import Signal
from stem.control import Controller
# library for scraping
import csv
import urllib
from bs4 import BeautifulSoup
import time
def launchTor():
# start Tor (wait 30 sec for Tor to load)
sproc = subprocess.Popen(r'.../Tor Browser/Browser/firefox.exe')
time.sleep(30)
return sproc
def killTor(sproc):
sproc.kill()
def connectTor():
socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, "127.0.0.1", 9150, True)
socket.socket = socks.socksocket
print("Connected to Tor")
def set_new_ip():
# disable socks server and enabling again
socks.setdefaultproxy()
"""Change IP using TOR"""
with Controller.from_port(port=9151) as controller:
controller.authenticate()
socks.setdefaultproxy(socks.PROXY_TYPE_SOCKS5, "127.0.0.1", 9150, True)
socket.socket = socks.socksocket
controller.signal(Signal.NEWNYM)
def checkIP():
conn = http.client.HTTPConnection("icanhazip.com")
conn.request("GET", "/")
time.sleep(3)
response = conn.getresponse()
print('current ip address :', response.read())
# Launch Tor and connect to Tor network
sproc = launchTor()
connectTor()
# list of url to scrape
url_list = [list of all the urls you want to scrape]
for url in url_list:
# set new ip and check ip before scraping for each new url
set_new_ip()
# allow some time for IP address to refresh
time.sleep(5)
checkIP()
'''
[insert your scraping code here: bs4, urllib, your usual thingy]
'''
# remember to kill process
killTor(sproc)
上記のこのスクリプトは、取得するすべてのURLのIPアドレスを更新します。 IPが変更されるのに十分な時間だけスリープするようにしてください。昨日最後にテストされました。お役に立てれば!
TorifyとTorブラウザーの使用に関する上記のコメントを展開するには(Privoxyは不要です):
pip install PySocks
pip install pyTorify
(Torブラウザをインストールして起動します)
コマンドラインの使用:
python -mtorify -p 127.0.0.1:9150 your_script.py
または、スクリプトに組み込まれています:
import torify
torify.set_tor_proxy("127.0.0.1", 9150)
torify.disable_tor_check()
torify.use_tor_proxy()
# use urllib as normal
import urllib.request
req = urllib.request.Request("http://....")
req.add_header("Referer", "http://...") # etc
res = urllib.request.urlopen(req)
html = res.read().decode("utf-8")
Torブラウザーはポート9050ではなく9150を使用することに注意してください
Torはソックスプロキシです。 引用した例 で直接接続すると、「urlopen error Tunnel connection failed:501 Tor is not the HTTP Proxy」で失敗します。他の人が述べたように、Privoxyでこれを回避できます。
または、PycURLまたはSocksiPyを使用することもできます。 torで両方を使用する例については、以下を参照してください...
https://stem.torproject.org/tutorials/to_russia_with_love.html