【问题标题】:scrapy crawl multiple page using Requestscrapy使用Request抓取多个页面
【发布时间】:2015-05-15 20:34:46
【问题描述】:

我关注了document

但仍然无法爬取多个页面。

我的代码是这样的:

def parse(self, response):
        for thing in response.xpath('//article'):
            item = MyItem()
            request = scrapy.Request(link,
                                     callback=self.parse_detail)
            request.meta['item'] = item
            yield request

def parse_detail(self, response):
        print "here\n"
        item = response.meta['item']
        item['test'] = "test"
        yield item

运行此代码不会调用 parse_detail 函数,也不会抓取任何数据。任何的想法?谢谢!

【问题讨论】:

    标签: python request web-crawler scrapy


    【解决方案1】:

    我发现如果我注释掉 allowed_domains 它将起作用。但这没有意义,因为链接肯定属于 allowed_domains 。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2021-12-13
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2018-07-28
      • 1970-01-01
      相关资源
      最近更新 更多