当前位置: 移动技术网 > IT编程>脚本编程>Python > Scrapy框架

Scrapy框架

2019年02月16日  | 移动技术网IT编程  | 我要评论

拟厦鸟,968880,勇闯地下城2.7无敌版

1. scrapy介绍

1.1. scrapy框架

scrapy是用纯python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。

  • scrapy engine(引擎): 负责spider、itempipeline、downloader、scheduler中间的通讯,信号、数据传递等。

  • scheduler(调度器): 它负责接受引擎发送过来的request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。

  • downloader(下载器):负责下载scrapy engine(引擎)发送的所有requests请求,并将其获取到的responses交还给scrapy engine(引擎),由引擎交给spider来处理,

  • spider(爬虫):它负责处理所有responses,从中分析提取数据,获取item字段需要的数据,并将需要跟进的url提交给引擎,再次进入scheduler(调度器),

  • item pipeline(管道):它负责处理spider中获取到的item,并进行进行后期处理(详细分析、过滤、存储等)的地方.

  • downloader middlewares(下载中间件):你可以当作是一个可以自定义扩展下载功能的组件。

  • spider middlewares(spider中间件):你可以理解为是一个可以自定扩展和操作引擎和spider中间通信的功能组件(比如进入spider的responses;和从spider出去的requests)

1.2. scrapy运行流程

  1. 引擎:hi!spider, 你要处理哪一个网站?

  2. spider:老大要我处理xxxx.com

  3. 引擎:你把第一个需要处理的url给我吧。

  4. spider:给你,第一个url是xxxxxxx.com

  5. 引擎:hi!调度器,我这有request请求你帮我排序入队一下。

  6. 调度器:好的,正在处理你等一下。

  7. 引擎:hi!调度器,把你处理好的request请求给我。

  8. 调度器:给你,这是我处理好的request

  9. 引擎:hi!下载器,你按照老大的下载中间件的设置帮我下载一下这个request请求

  10. 下载器:好的!给你,这是下载好的东西。(如果失败:sorry,这个request下载失败了。然后引擎告诉调度器,这个request下载失败了,你记录一下,我们待会儿再下载)

  11. 引擎:hi!spider,这是下载好的东西,并且已经按照老大的下载中间件处理过了,你自己处理一下(注意!这儿responses默认是交给def parse()这个函数处理的)

  12. spider:(处理完毕数据之后对于需要跟进的url),hi!引擎,我这里有两个结果,这个是我需要跟进的url,还有这个是我获取到的item数据。

  13. 引擎:hi !管道 我这儿有个item你帮我处理一下!调度器!这是需要跟进url你帮我处理下。然后从第四步开始循环,直到获取完老大需要全部信息。

  14. 管道``调度器:好的,现在就做!

1.3. 制作srapy爬虫的四部曲

  • 新建项目 (scrapy startproject xxx):新建一个新的爬虫项目
  • 明确目标 (编写items.py):明确你想要抓取的目标
  • 制作爬虫 (spiders/xxspider.py):制作爬虫开始爬取网页
  • 存储内容 (pipelines.py):设计管道存储爬取内容

1.4. 文件目录

插入scrapy01.png

  • scrapy.cfg :项目的配置文件
[settings]
default = myspider.settings

[deploy]
#url = http://localhost:6800/
project = myspider
  • myspider/ :项目的python模块,将会从这里引用代码
  • __init__: 必须的文件
  • myspider/items.py :项目的目标文件
import scrapy


class myspideritem(scrapy.item):
    # define the fields for your item here like:
    # name = scrapy.field()
    # age = scrapy.field()
    pass
  • myspider/middlewares.py :
  • myspider/pipelines.py :项目的管道文件
class myspiderpipeline(object):
    def process_item(self, item, spider):
        return item
  • myspider/settings.py :项目的设置文件
# 你的爬虫名字
bot_name = 'myspider'

# 你的爬虫的位置
spider_modules = ['myspider.spiders']
newspider_module = 'myspider.spiders'

# 是否遵循robust协议
robotstxt_obey = true

# 爬虫并发量
#concurrent_requests = 32

# 下载延迟
#download_delay = 3
# 下载延迟的额外设置:一般不用设置
#concurrent_requests_per_domain = 16
#concurrent_requests_per_ip = 16

# 是否使用cookie
#cookies_enabled = false

# 访问电话线设置
#telnetconsole_enabled = false

# 设置默认请求报头
#default_request_headers = {
# 'user-agent': ''
#   'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
#   'accept-language': 'en',
#}

# 爬虫中间键:一般不设置
#spider_middlewares = {
#    'myspider.middlewares.myspiderspidermiddleware': 543,
#}

# 下载中间键: 后面的值是优先级,越小越高
#downloader_middlewares = {
#    'myspider.middlewares.myspiderdownloadermiddleware': 543,
#}

# 延展,没什么用
#extensions = {
#    'scrapy.extensions.telnet.telnetconsole': none,
#}

# 管道文件---经常使用的,用于指定优先级
# 
#item_pipelines = {
#    'myspider.pipelines.myspiderpipeline': 300,
#}

2. scrapy全部流程

我们打算抓取: 网站里的所有讲师的姓名、职称和个人信息。

  • 创建项目
  • 编写items.py文件:设置需要保存的数据字段
  • 创建爬虫模板
    • 在spiders/文件夹下面运行scrapy genspider spidername "starturl"
  • 进入xxx/spiders: 编写爬虫文件,文件里的name就是爬虫名
  • 写管道文件
    • 设置文件保存的形式和写入文件
    • 在setting中设置优先级(默认自动设置)
    • 添加user-agent到setting中
  • 运行:
    -scrapy crawl itcast
    • scrapy crawl itcast -o json/csv/xml/
  • 数据处理
    • 数据:交给管道文件处理 yield item
    • 请求:重新发送给调度器入、出队列,交给下载器下载 yield scrapy.request(url, callback = self.parse)

3. 写爬虫主要文件

要建立一个spider, 你必须用scrapy.spider类创建一个子类,并确定了三个强制的属性 和 一个方法。

  • name = "" :这个爬虫的识别名称,必须是唯一的,在不同的爬虫必须定义不同的名字。

  • allow_domains = [] 是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页,不存在的url会被忽略。

  • start_urls = ():爬取的url元祖/列表。爬虫从这里开始抓取数据,所以,第一次下载的数据将会从这些urls开始。其他子url将会从这些起始url中继承性生成。

  • parse(self, response) :解析的方法,每个初始url完成下载后将被调用,调用的时候传入从每一个url传回的response对象来作为唯一参数,主要作用如下:

    • 负责解析返回的网页数据(response.body),提取结构化数据(生成item)
    • 生成需要下一页的url请求。

如对本文有疑问,请在下面进行留言讨论,广大热心网友会与你互动!! 点击进行留言回复

相关文章:

验证码:
移动技术网