Skip to main content

scrapy递归抓取网页数据

scrapy递归抓取网页数据

在使用scrapy抓取网页的数据的过程中,我们会遇到一个问题就是,如何来抓取分页,有时候又不能一下子把所有的分页都获取过来。

这里的解决问题的思路是,获取每个当前抓取页面的下一页链接,并将链接加入要抓取的url列表中,如下是实例代码

 def parse(self, response):
        items = []
        validurls = []
        newurls = response.xpath(
            "//div[@id='selectedgenre']/ul[@class='list paginate']/li/a[@class='paginate-more']/@href").extract()
        for url in newurls:
            validurls.append(url)
        # //循环抓取
        items.extend([self.make_requests_from_url(url).replace(callback=self.parse) for url in list(set(validurls))])
        iTunes = ItunesItem()
        iTunes['url'] = response.xpath(
            "//div[@id='selectedcontent']/div[@class='column first']/ul/li/a/@href").extract()
        iTunes['title'] = response.xpath(
            "//div[@id='selectedcontent']/div[@class='column first']/ul/li/a/text()").extract()
        iTunes['create_time'] = int(time.time())
        items.append(iTunes)
        return items
版权声明

版权声明

durban.zhang 创作并维护的 Walkerfree 博客采用 创作共用保留署名-非商业-禁止演绎4.0国际许可证。本文首发于 Walkerfree 博客(http://www.walkerfree.com/),版权所有,侵权必究。本文永久链接:http://www.walkerfree.com/article/10