【发布时间】:2020-08-12 02:35:50
【问题描述】:
我试图了解是否可以在 Try/Except 调用中设置循环,或者我是否需要重组以使用函数。长话短说,在花了几个小时学习 Python 和 BeautifulSoup 之后,我设法将一些代码拼凑在一起,以抓取 URL 列表,将数据提取到 CSV(现在将其更新到 MySQL 数据库)。代码现在按计划运行,除了我偶尔遇到 10054,可能是因为我的 VPN 打嗝,或者可能是源主机服务器偶尔弹跳我(我的循环中有 30 秒的延迟,但有时它仍然会踢我)。
我了解 Try/Except 结构的一般概念,但我不太确定我将如何(或者如果我可以)在其中循环以重试。我获取 URL、清理它并解析我需要的表的基本代码如下所示:
for url in contents:
print('Processing record', (num+1), 'of', len(contents))
if url:
print('Retrieving data from ', url[0])
html = requests.get(url[0]).text
soup = BeautifulSoup(html, 'html.parser')
for span in soup('span'):
span.decompose()
trs = soup.select('div#collapseOne tr')
if trs:
print('Processing')
for t in trs:
for header, value in zip(t.select('td')[0], t.select('td:nth-child(2)')):
if num == 0:
headers.append(' '.join(header.split()))
values.append(re.sub(' +', ' ', value.get_text(' ', strip=True)))
之后只是将数据处理为 CSV 并运行更新 sql 语句。
我想要做的是如果 HTML 请求调用失败是等待 30 秒,再次尝试请求,然后处理,或者如果重试失败 X 次,继续并退出脚本(假设那时点我有一个完整的连接失败)。
是否可以在线执行类似的操作,或者我需要将请求语句变成一个函数并设置一个循环来调用它?不得不承认我还不熟悉 Python 如何处理函数返回。
【问题讨论】:
标签: python-3.x web-scraping beautifulsoup