查询字符串的crumb 参数不断变化,可能随着每个浏览器会话而变化。所以,当你从浏览器复制它的值,关闭它,然后在浏览器的另一个实例中使用它,它就会过期。
因此,当您在 requests 会话中使用它时,它无法识别 cookie 值并产生错误也就不足为奇了。
第 1 步
在任何浏览器中研究网络标签都会有所帮助。在这种特殊情况下,这个crumb 部分可能是在您单击主页中的代码时生成的。因此,您必须先获取该 URL。
tickers = ('000001.SS', 'NKE', 'MA', 'SBUX')
url = 'https://finance.yahoo.com/quote/{0}?p={0}'.format(tickers[0])
r = s.get(url, headers = req_headers)
这个 URL 只需要获取一次。因此,您为此使用哪个代码无关紧要。
第 2 步
服务器返回的响应包含您下载 CSV 文件时传递给查询字符串中crumb 参数的值。
但是,它包含在上一个请求返回的页面的script 标记中。这意味着您不能单独使用 BeautifulSoup 来提取 crumb 值。
我最初尝试re 将其从script 标记的文本中提取出来。但由于某种原因,我无法做到。所以我转到json 来解析它。
soup = BeautifulSoup(r.content, 'lxml')
script_tag = soup.find(text=re.compile('crumb'))
response_dict = json.loads(script_tag[script_tag.find('{"context":'):script_tag.find('}}}};') + 4])
crumb = response_dict['context']['dispatcher']['stores']['CrumbStore']['crumb']
请注意,BeautifulSoup 需要提取 script 元素的内容,以便稍后传递给 json 以将其解析为 Python dict 对象。
我必须使用pprint 将生成的dict 打印到文件中,以查看crumb 值的确切存储位置。
第 3 步
获取 CSV 文件的最终 URL 如下所示:
for ticker in tickers:
csv_url = 'https://query1.finance.yahoo.com/v7/finance/download/{0}?period1=1506656676&period2=1509248676&interval=1d&events=history&crumb={1}'.format(ticker, crumb)
r = s.get(csv_url, headers = req_headers)
结果
这是下载的文件的前几行:
Date,Open,High,Low,Close,Adj Close,Volume
2017-09-29,3340.311035,3357.014893,3340.311035,3348.943115,3348.943115,144900
2017-10-09,3403.246094,3410.169922,3366.965088,3374.377930,3374.377930,191700
2017-10-10,3373.344971,3384.025879,3358.794922,3382.988037,3382.988037,179400
注意:
我在两个请求中都使用了适当的标头。因此,如果您跳过该部分并且没有得到所需的结果,您可能也必须包含它们。
req_headers = {
'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
'accept-encoding': 'gzip, deflate, br',
'accept-language': 'en-US,en;q=0.8',
'upgrade-insecure-requests': '1',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'
}