> 文章列表 > 【Python_Scrapy学习笔记(五)】Scrapy框架之管道文件pipelines.py详解

【Python_Scrapy学习笔记(五)】Scrapy框架之管道文件pipelines.py详解

【Python_Scrapy学习笔记(五)】Scrapy框架之管道文件pipelines.py详解

Scrapy框架之管道文件pipelines.py详解

前言

pipelines.py 文件是 Scrapy 框架下,用于接收网络爬虫传过来的数据,以便做进一步处理的文件。例如验证实体的有效性、清除不需要的信息、存入数据库(持久化实体)、存入文本文件等。本文中介绍 pipelines.py 文件的基本使用方法。

正文

1、pipelines介绍

管道文件 pipelines.py 主要用来对抓取的数据进行处理:一般一个类即为一个管道,比如创建存入MySQL、MangoDB 的管道类。
管道文件中 process_item() 方法即为处理所抓数据的具体方法。

2、pipelines常用方法

  1. process_item(self,item,spider):处理爬虫抓取的具体数据,在 process_item() 函数中 必须要 return item,因为存在多管道时,会把此函数的返回值继续交由下一个管道继续处理;
  2. open_spider():爬虫项目启动时只执行一次,一般用于数据库连接;
  3. close_spider():爬虫项目结束时只执行一次,一般用于收尾工作,如数据库的关闭。

以把数据存入 Mysql 数据库为例:

import pymysql
from .settings import *# 管道2:把数据存入Mysql数据库
# 提前建库建表
# create database cardb charset utf8;
# use cardb;
# create table cattab(
# name varchar(200),
# price varchar(100),
# link varchar(300)
# )charset=utf8;
class CarMysqlPipeline(object):def __init__(self):self.db = None  # 初始化表self.cur = None  # 初始化游标对象def open_spider(self, spider):"""爬虫程序开始时,只执行一次,一般用于数据库的连接:param spider::return:"""self.db = pymysql.connect(host=MYSQL_HOST, user=MYSQL_USER, password=MYSQL_PWD, database=MYSQL_DB,charset=CHARSET)  # 数据库连接self.cur = self.db.cursor()  # 创建游标对象def process_item(self, item, spider):ins = 'insert into cartab values(%s,%s,%s)'  # 写sql语句li = [item["name"].strip(),item["price"].strip(),item["link"].strip()]self.cur.execute(ins, li)self.db.commit()  # 提交到数据库执行# 只做插入数据操作return itemdef close_spider(self, spider):"""爬虫程序结束时,只执行一次,一般用于数据库的断开:param spider::return:"""self.cur.close()  # 关闭游标self.db.close()  # 关闭表

3、开启pipelines

在 settings.py 设置开启 pipelines

# Configure item pipelines
# See https://docs.scrapy.org/en/latest/topics/item-pipeline.html
# 开启管道
ITEM_PIPELINES = {# 项目目录名.模块名.类名:优先级(1-1000不等)"CarSpider.pipelines.CarspiderPipeline": 300,# "CarSpider.pipelines.CarMysqlPipeline": 400
}