> 文章列表 > 【Python_Scrapy学习笔记(八)】基于Scrapy框架实现多级页面数据抓取

【Python_Scrapy学习笔记(八)】基于Scrapy框架实现多级页面数据抓取

【Python_Scrapy学习笔记(八)】基于Scrapy框架实现多级页面数据抓取

基于Scrapy框架实现多级页面数据抓取

前言

本文中介绍 如何基于 Scrapy 框架实现多级页面数据的抓取,并以抓取汽车之家二手车数据为例进行讲解。

正文

在介绍如何基于 Scrapy 框架实现多级页面数据的抓取之前,先介绍下 Scrapy 框架的请求对象 request 和响应对象 response。

1、请求对象request属性及方法

  1. request.url:请求的 url 地址
  2. request.headers:请求头-字典格式
  3. request.meta:解析函数间 item 数据传递,定义代理
  4. request.cookies:Cookie 参数

2、响应对象response属性及方法

  1. response.url:返回实际数据的 url 地址
  2. response.text:响应内容-字符串格式
  3. response.body:响应内容-字符串格式
  4. response.encoding:响应字符编码
  5. response.status:HTTP响应码

3、请求对象request的meta参数

meta 参数:在不同的解析函数之间传递数据。
在执行 scrapy.Request() 方法时把一些回调函数中需要的数据传进去,meta 必须是一个字典,在下一个函数中可以使用 response.meta 进行访问,meta 会随着 response 响应对象一起回来,作为response 的一个属性。
注意:meta 传递的数据是浅拷贝传递的,如果传递的数据是可变的数据类型,那么很容易造成数据不对应的错误。
利用 mata 参数在不同的解析函数间传递数据:如有需要继续交给调度器的请求,则创建新的 item 对象。

4、基于Scrapy框架实现多级页面数据抓取

多级页面抓取的注意事项:

  1. 多级页面,数据不能直接提交给管道;
  2. 通过 meta 参数传递的数据是浅拷贝传递的,如果传递的数据是可变的数据类型,那么很容易造成数据不对应的错误;
  3. 针对 meta 参数传递数据不对应的的解决方法:传递多个参数。

案例详情:
这里参考 【Python_Scrapy学习笔记(六)】Scrapy框架基本使用流程 里的案例,并在此案例基础之上升级。

  1. 需求梳理:二级页面要爬取表显里程、上牌时间、排量
    【Python_Scrapy学习笔记(八)】基于Scrapy框架实现多级页面数据抓取

  2. 整体思路:梳理要改写的 py 文件

    1. items.py:定义所有要抓取的数据结构
    2. car.py:将详情页链接继续交给调度器队列
    3. pipelines.py:处理全部汽车信息的item对象
  3. item.py:定义所有要抓取的数据结构,增加要爬取的三个字段

    import scrapyclass CarspiderItem(scrapy.Item):# define the fields for your item here like:# name = scrapy.Field()# 汽车的名称、价格、和详情页链接,相当于定义了一个字典,只赋值了key,未赋值valuename = scrapy.Field()price = scrapy.Field()link = scrapy.Field()# 表显里程、上牌时间、排量time = scrapy.Field()km = scrapy.Field()displacement = scrapy.Field()
    
  4. car.py:将详情页链接继续交给调度器队列,通过 meta 参数传递数据

    import scrapy
    from ..items import CarspiderItemclass CarSpider(scrapy.Spider):name = "car"allowed_domains = ["www.che168.com"]# i = 1# 1、删除掉 start_urls 变量# start_urls = ["https://www.che168.com/china/a0_0msdgscncgpi1ltocsp1exx0/"]  # 从第一页开始def start_requests(self):"""2、重写 start_requests() 方法:一次性生成所有要抓取的url地址,并一次性交给调度器入队列:return:"""for i in range(1, 3):url = "https://www.che168.com/china/a0_0msdgscncgpi1ltocsp{}exx0/".format(i)# 交给调度器入队列,并指定解析函数yield scrapy.Request(url=url, callback=self.parse)def parse(self, response):item = {}# 先写基准xpath //body/div/div/ul/lili_list = response.xpath("//body/div/div/ul[@class='viewlist_ul']/li")for li in li_list:item["name"] = li.xpath("./@carname").get()item["price"] = li.xpath("./@price").get()if li.xpath("./a/@href").get().find('/dealer') == 0:item["link"] = "https://www.che168.com" + li.xpath("./a/@href").get()else:item["link"] = "https://" + li.xpath("./a/@href").get()[2:]# 此时把每个详情页的链接交给调度器入队列yield scrapy.Request(url=item["link"], meta={'k1': item['name'], 'k2': item['price'], 'k3': item['link']},callback=self.get_car_info)# meta传递的数据是浅拷贝传递的,如果传递的数据是可变的数据类型,那么很容易造成数据不对应的错误。# 当scrapy用请求对象发送请求并将返回结果给下一个解析方法后,接收到的meta里的数据是可以被操作修改的,所以item是会被for循环不断的修改,从而接收到的数据是被修改过后的数据。# 利用mata参数在不同的解析函数间传递数据:如有需要继续交给调度器的请求,则创建新的item对象# 解决方法:传递多个参数# 多级页面,不能直接提交给管道def get_car_info(self, response):"""function:  提取二级页面的数据in:out:return:  int >0 ok, <0 some wrongothers:"""item = CarspiderItem()  # 给item.py的CarspiderItem类做实例化# meta会随着response响应对象一起回来,作为response的一个属性# item = response.meta["item"]item['name'] = response.meta['k1']item['price'] = response.meta['k2']item['link'] = response.meta['k3']item["time"] = response.xpath(".//div[@class='car-box']/ul/li[2]/h4/text()").get()item["km"] = response.xpath(".//div[@class='car-box']/ul/li[1]/h4/text()").get()item["displacement"] = response.xpath(".//div[@class='car-box']/ul/li[3]/h4/text()").get()yield item
  5. pipelines.py:处理全部汽车信息的item对象

    class CarspiderPipeline:def process_item(self, item, spider):print(item) # 这里只做打印处理return item
    
  6. 运行效果
    【Python_Scrapy学习笔记(八)】基于Scrapy框架实现多级页面数据抓取