Python用の優れた Requests モジュールについての簡単な短い説明です。
変数「プロキシ」に含まれるべきものをドキュメントで見つけることができないようです。標準の「IP:PORT」値を含む辞書を送信すると、2つの値を要求することを拒否しました。だから、私は推測します(これはドキュメントでカバーされていないようです)ので、最初の値はIPで、2番目の値はポートですか?
ドキュメントはこれについてのみ言及しています:
プロキシ–(オプション)辞書をプロキシのURLにマッピングする辞書。
だから私はこれを試しました...私は何をすべきですか?
proxy = { ip: port}
そして、それらを辞書に入れる前に、これらを何らかのタイプに変換する必要がありますか?
r = requests.get(url,headers=headers,proxies=proxy)
proxies
'dict構文は{"protocol":"ip:port", ...}
です。 http、https、およびftpプロトコルを使用して、異なる(または同じ)プロキシをリクエストに指定できます。
http_proxy = "http://10.10.1.10:3128"
https_proxy = "https://10.10.1.11:1080"
ftp_proxy = "ftp://10.10.1.10:3128"
proxyDict = {
"http" : http_proxy,
"https" : https_proxy,
"ftp" : ftp_proxy
}
r = requests.get(url, headers=headers, proxies=proxyDict)
requests
documentation から推定:
パラメータ:
method
–新しいRequestオブジェクトのメソッド。url
–新しいRequestオブジェクトのURL。
...proxies
–(オプション)辞書mappingprotocoltoURLプロキシの。
...
Linuxでは、HTTP_PROXY
、HTTPS_PROXY
、およびFTP_PROXY
環境変数を使用してこれを行うこともできます。
export HTTP_PROXY=10.10.1.10:3128
export HTTPS_PROXY=10.10.1.11:1080
export FTP_PROXY=10.10.1.10:3128
Windowsの場合:
set http_proxy=10.10.1.10:3128
set https_proxy=10.10.1.11:1080
set ftp_proxy=10.10.1.10:3128
ジェイ、これを指摘してくれてありがとう:
構文はrequests 2.0.0で変更されました。
URLにスキーマを追加する必要があります。 http://docs.python-requests.org/en/latest/user/advanced/#proxies
Urllibには、システムのプロキシ設定を取得するための非常に優れたコードがあり、それらはたまたま正しい形式で直接使用できることがわかりました。次のように使用できます。
import urllib
...
r = requests.get('http://example.org', proxies=urllib.request.getproxies())
それは本当にうまく機能し、urllibはMac OS XとWindowsの設定を取得することも知っています。
プロキシのドキュメントはこちら を参照できます。
プロキシを使用する必要がある場合は、任意のリクエストメソッドのプロキシ引数を使用して個々のリクエストを設定できます。
import requests
proxies = {
"http": "http://10.10.1.10:3128",
"https": "https://10.10.1.10:1080",
}
requests.get("http://example.org", proxies=proxies)
プロキシでHTTP基本認証を使用するには、 http:// user:[email protected]/ 構文を使用します。
proxies = {
"http": "http://user:[email protected]:3128/"
}
受け入れられた答えは私にとっては良いスタートでしたが、次のエラーが表示され続けました。
AssertionError: Not supported proxy scheme None
これを修正するには、プロキシURLでhttp://を指定します。
http_proxy = "http://194.62.145.248:8080"
https_proxy = "https://194.62.145.248:8080"
ftp_proxy = "10.10.1.10:3128"
proxyDict = {
"http" : http_proxy,
"https" : https_proxy,
"ftp" : ftp_proxy
}
元の作品が一部の人には役立つが、私には役立たない理由について興味があります。
編集:これを反映して主な回答が更新されたようです:)
ここに、いくつかのプロキシ設定とストップウォッチを備えた要求モジュール用のpythonの基本クラスがあります。
import requests
import time
class BaseCheck():
def __init__(self, url):
self.http_proxy = "http://user:pw@proxy:8080"
self.https_proxy = "http://user:pw@proxy:8080"
self.ftp_proxy = "http://user:pw@proxy:8080"
self.proxyDict = {
"http" : self.http_proxy,
"https" : self.https_proxy,
"ftp" : self.ftp_proxy
}
self.url = url
def makearr(tsteps):
global stemps
global steps
stemps = {}
for step in tsteps:
stemps[step] = { 'start': 0, 'end': 0 }
steps = tsteps
makearr(['init','check'])
def starttime(typ = ""):
for stemp in stemps:
if typ == "":
stemps[stemp]['start'] = time.time()
else:
stemps[stemp][typ] = time.time()
starttime()
def __str__(self):
return str(self.url)
def getrequests(self):
g=requests.get(self.url,proxies=self.proxyDict)
print g.status_code
print g.content
print self.url
stemps['init']['end'] = time.time()
#print stemps['init']['end'] - stemps['init']['start']
x= stemps['init']['end'] - stemps['init']['start']
print x
test=BaseCheck(url='http://google.com')
test.getrequests()
クッキーとセッションデータを保持する場合は、次のようにするのが最善です。
import requests
proxies = {
'http': 'http://user:[email protected]:3128',
'https': 'https://user:[email protected]:3128',
}
# Create the session and set the proxies.
s = requests.Session()
s.proxies = proxies
# Make the HTTP request through the session.
r = s.get('http://www.showmemyip.com/')
少し遅れていますが、プロキシをスクレイピングし、http POSTまたはGETを作成することを簡素化するラッパークラスがあります。
ProxyRequests
https://github.com/rootVIII/proxy_requests
私はプロキシグラバーを作成しましたが、入力なしで同じグラブプロキシに接続することもできます:
#Import Modules
from termcolor import colored
from Selenium import webdriver
import requests
import os
import sys
import time
#Proxy Grab
options = webdriver.ChromeOptions()
options.add_argument('headless')
driver = webdriver.Chrome(chrome_options=options)
driver.get("https://www.sslproxies.org/")
tbody = driver.find_element_by_tag_name("tbody")
cell = tbody.find_elements_by_tag_name("tr")
for column in cell:
column = column.text.split(" ")
print(colored(column[0]+":"+column[1],'yellow'))
driver.quit()
print("")
os.system('clear')
os.system('cls')
#Proxy Connection
print(colored('Getting Proxies from graber...','green'))
time.sleep(2)
os.system('clear')
os.system('cls')
proxy = {"http": "http://"+ column[0]+":"+column[1]}
url = 'https://mobile.facebook.com/login'
r = requests.get(url, proxies=proxy)
print("")
print(colored('Connecting using proxy' ,'green'))
print("")
sts = r.status_code