【发布时间】:2016-01-01 05:20:05
【问题描述】:
得到后
mechanize._response.httperror_seek_wrapper:HTTP 错误 403:请求 robots.txt 不允许
使用 Mechanize 时,添加了来自 Screen scraping: getting around "HTTP Error 403: request disallowed by robots.txt" 的代码以忽略 robots.txt,但现在收到此错误:
mechanize._response.httperror_seek_wrapper:HTTP 错误 403:禁止
有没有办法解决这个错误?
(当前代码)
br = mechanize.Browser()
br.set_handle_robots(False)
【问题讨论】:
标签: python web-scraping mechanize robots.txt