【问题标题】:Scrapy - SitemapSpider equivalent of start_requests methodScrapy - 与 start_requests 方法等效的 SitemapSpider
【发布时间】:2019-07-08 18:49:05
【问题描述】:

This 是我正在抓取的网站的站点地图网址。我希望我的蜘蛛从以 /property 开头的页面中抓取数据。

问题是,当发送没有标头的请求时,这些页面不会向我显示正确的响应。该请求需要一个用户代理标头。

我想出了一个这样的解决方案。首先,以/property开头的url被parse方法抓取,该方法得到一个空响应。通过parse 方法发送相同的请求以及标头,并通过parse_items 方法抓取正确的响应。

parse_items 方法永远不会被调用,shell 进程永远不会启动。我不明白为什么没有达到parse_items。有什么方法可以定义像start_requests 这样的方法,这样我就可以覆盖SitemapSpider 类的parse 方法的行为。

class MySpider(SitemapSpider):

    name = 'myspider'

    sitemap_urls = [
        'https://www.iproperty.com.my/sitemap_index.xml',
    ]

    sitemap_rules = [
        ('/property', 'parse'),
    ]

    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
    }

    def parse(self, response):
        yield scrapy.Request(
            url=response.url,
            method='GET',
            headers=self.headers,
            callback=self.parse_items
        )


    def parse_items(self, response):
        from scrapy.shell import inspect_response
        inspect_response(response, self)

【问题讨论】:

  • headers 是什么?

标签: python web-scraping scrapy web-crawler sitemap


【解决方案1】:

根据SitemapSpider source code (v 1.6) 它不会调用parse 函数作为回调(就像Spider 那样):

def start_requests(self):
    for url in self.sitemap_urls:
        yield Request(url, self._parse_sitemap)

如您所见,它没有添加任何特定的标题。
你需要观察SitemapSpider 源代码并重写它的一些方法。

我注意到另一件事。我不记得蜘蛛有headers 值。 你是说DEFAULT_REQUEST_HEADERS 设置吗?:

class MySpider(SitemapSpider):

    name = 'myspider'

    sitemap_urls = [
        'https://www.iproperty.com.my/sitemap_index.xml',
    ]

    sitemap_rules = [
        ('/property', 'parse'),
    ]
    CUSTOM_SETTINGS = {
        DEFAULT_REQUEST_HEADERS : {
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
    }}
....

【讨论】:

  • 这行得通,但我认为DEFAULT_REQUEST_HEADERS 应该在字符串文字之间。
【解决方案2】:

您可以使用DEFAULT_REQUEST_HEADERS 设置,您可以使用custom_settings 类属性在您的蜘蛛本身上进行设置。

如果这对您来说不够灵活,请使用 Georgiy’s approach 或覆盖 SitemapSpider 或基于它从头开始编写自己的蜘蛛。

【讨论】:

    【解决方案3】:

    如果要实现相同的目标,采用稍微不同的方法怎么样?如果您尝试在scrapy 中使用BeautifulSoup,那么输出就是您所期望的。也许是解析器负责获取响应。

    from bs4 import BeautifulSoup
    import scrapy
    
    class SitMapSpider(scrapy.Spider):
        name = 'sitemap'
        start_urls = ['https://www.iproperty.com.my/sitemap_index.xml']
    
        def start_requests(self):
            for url in self.start_urls:
                yield scrapy.Request(url, self.parse)
    
        def parse(self,response):
            soup = BeautifulSoup(response.text, 'xml')
            for item in soup.select('sitemap > loc'):
                yield scrapy.Request(item.text,self.parse_more_links)
    
        def parse_more_links(self,response):
            soup = BeautifulSoup(response.text, 'xml')
            for item in soup.select('url > loc'):
                if not "/property" in item.text:continue
                yield {"item": item.text}
    

    【讨论】:

    • 这不会跟随第一页中的链接。以 /property 开头的 url 位于第二级。这就是我需要使用 SitemapSpider 的原因。
    • 我明白你的意思。我试图编辑我的帖子以反映你的意思。请立即检查。谢谢。
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多