YahooがAPIサポートを終了したため、pandas datareaderは失敗します
import pandas_datareader.data as web
import datetime
start = datetime.datetime(2016, 1, 1)
end = datetime.datetime(2017, 5, 17)
web.DataReader('GOOGL', 'yahoo', start, end)
HTTPError: HTTP Error 401: Unauthorized
問題を一時的に回避できる非公式のライブラリはありますか? Quandlに何かありますか?
彼らはURLを変更し、Cookie保護(および場合によってはjavascript)を使用するようになったので、ブラウザをエミュレートするdryscrapeを使用して自分の問題を修正しました。これは、利用規約に違反しているため、これは単なる参考情報です。あなた自身のリスク?私は代替のEOD価格源としてQuandlを探しています。
CookieがCookieJarを閲覧しているとどこにも行けなかったので、dryscrapeを使用してユーザーのダウンロードを「偽造」することになりました。
import dryscrape
from bs4 import BeautifulSoup
import time
import datetime
import re
#we visit the main page to initialise sessions and cookies
session = dryscrape.Session()
session.set_attribute('auto_load_images', False)
session.set_header('User-agent', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36')
#call this once as it is slow(er) and then you can do multiple download, though there seems to be a limit after which you have to reinitialise...
session.visit("https://finance.yahoo.com/quote/AAPL/history?p=AAPL")
response = session.body()
#get the dowload link
soup = BeautifulSoup(response, 'lxml')
for taga in soup.findAll('a'):
if taga.has_attr('download'):
url_download = taga['href']
print(url_download)
#now replace the default end date end start date that yahoo provides
s = "2017-02-18"
period1 = '%.0f' % time.mktime(datetime.datetime.strptime(s, "%Y-%m-%d").timetuple())
e = "2017-05-18"
period2 = '%.0f' % time.mktime(datetime.datetime.strptime(e, "%Y-%m-%d").timetuple())
#now we replace the period download by our dates, please feel free to improve, I suck at regex
m = re.search('period1=(.+?)&', url_download)
if m:
to_replace = m.group(m.lastindex)
url_download = url_download.replace(to_replace, period1)
m = re.search('period2=(.+?)&', url_download)
if m:
to_replace = m.group(m.lastindex)
url_download = url_download.replace(to_replace, period2)
#and now viti and get body and you have your csv
session.visit(url_download)
csv_data = session.body()
#and finally if you want to get a dataframe from it
import sys
if sys.version_info[0] < 3:
from StringIO import StringIO
else:
from io import StringIO
import pandas as pd
df = pd.read_csv(StringIO(csv_data), index_col=[0], parse_dates=True)
df
https://pypi.python.org/pypi/fix-yahoo-finance の「fix-yahoo-finance」による回避策が便利であることがわかりました。例:
from pandas_datareader import data as pdr
import fix_yahoo_finance
data = pdr.get_data_yahoo('APPL', start='2017-04-23', end='2017-05-24')
最後の2つのデータ列の順序は「AdjClose」と「Volume」であることに注意してください。以前の形式ではありません。インデックスを再作成するには:
cols = ['Date', 'Open', 'High', 'Low', 'Close', 'Volume', 'Adj Close']
data.reindex(columns=cols)
これを試してみてください:
import fix_yahoo_finance as yf
data = yf.download('SPY', start = '2012-01-01', end='2017-01-01')
YahooからGoogleFinanceに変更しましたが、うまくいきました。
data.DataReader(ticker, 'yahoo', start_date, end_date)
に
data.DataReader(ticker, 'google', start_date, end_date)
そして私の「古い」Yahoo!からのシンボル:
tickers = ['AAPL','MSFT','GE','IBM','AA','DAL','UAL', 'PEP', 'KO']
に
tickers = ['NASDAQ:AAPL','NASDAQ:MSFT','NYSE:GE','NYSE:IBM','NYSE:AA','NYSE:DAL','NYSE:UAL', 'NYSE:PEP', 'NYSE:KO']
Fix_yahoo_financeパッケージの名前がyfinanceに変更されました。だからあなたはこのコードを試すことができます
import yfinance as yf
data = yf.download('MSFT', start = '2012-01-01', end='2017-01-01')
Yahooファイナンスはパンダとうまく連携します。次のように使用します。
import pandas as pd
import pandas_datareader as pdr
from pandas_datareader import data as wb
ticker='GOOGL'
start_date='2019-1-1'
data_source='yahoo'
ticker_data=wb.DataReader(ticker,data_source=data_source,start=start_date)
df=pd.DataFrame(ticker_data)
各データの後の読み取りの間にスレッドをスリープ状態にします。ほとんどの場合は機能する可能性があるため、5〜6回試行し、データをcsvファイルに保存して、次回uがファイルから読み取ることができるようにします。
### code is here ###
import pandas_datareader as web
import time
import datetime as dt
import pandas as pd
symbols = ['AAPL', 'MSFT', 'AABA', 'DB', 'GLD']
webData = pd.DataFrame()
for stockSymbol in symbols:
webData[stockSymbol] = web.DataReader(stockSymbol,
data_source='yahoo',start=
startDate, end= endDate, retry_count= 10)['Adj Close']
time.sleep(22) # thread sleep for 22 seconds.