之前碰到了一个情况,在抓取网页的过程中,很容易出现错误,我想在出现错误之后再重新尝试一次抓取,代码如下:

tries = 3
while (tries > 0):
    try:
        conn = urllib2.urlopen(url, timeout = 10)
        page = baidu_conn.read()
        conn.close()
        break
    except Exception, e:
        tries -= 1
        print e
else:
  page = ''

  

 

相关文章:

  • 2021-09-02
  • 2022-12-23
  • 2021-10-02
  • 2021-05-09
  • 2022-01-13
  • 2021-11-23
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2022-12-23
  • 2021-04-26
  • 2021-11-17
  • 2021-11-01
  • 2021-12-10
  • 2022-12-23
相关资源
相似解决方案