scrapy-redis

scrapy-redis的源码并不多,因为它是利用Redis数据库重新实现了scrapy中的某些组件

 

对于一个分布式爬虫框架:

  1、分配爬取的任务,为每个爬虫分配不重复的爬取任务

  2、汇总爬取的数据,将所有爬取到的数据汇总到一个地方

 

scrapy-redis为多个爬虫分配爬取任务的方式是:让所有爬虫共享一个存在在Redis数据库中的请求队列(替代各个爬虫独立的请求队列),每个爬虫从请求队列中获得请求,下载并解析页面之后,将解析出来的新的请求再次添加到请求队列中,因此每个爬虫既是下载任务的生产者,有是消费者

为了实现多个爬虫的任务的分配,scrapy-redis重新实现了下面的组件:

  基于redis的请求队列(优先队列、FIFO、LIFO)

  基于redis的请求去重过滤器(过滤掉重复的请求)

  基于以上两个组件的调度器

 

1、调度器的实现

  调度器中最核心的两个方法是enqueue_request和next_request,它们分别对应请求的入队和出队操作。spider提交的request对象最终由scrapy引擎用enqueue_request添加到请求队列中,scrapy引擎同时也调用next_request从请求队列中取出请求,送给下载器进行下载。

  self.queue和self.df分别是请求队列和去重过滤器对象。在enqueue_request方法中,使用去重过滤器的request_seen方法来判断request是否重复了,也就是request对应的页面是否已经抓取过了,如果用户没有强制忽略过滤,并且request是重复的,就应该抛弃这个request,并且直接返回False,否则就调用self.queue的push方法将request加入到队列中等待被调用,并返回True。在next_request方法中,调用self.queue的pop方法出队一个request并返回

 

2、请求队列的实现:

  基于redis实现的请求队列:

    ProorityQueue优先级队列(默认)

    FifoQueue先进先出队列

      self.server是redis数据库的连接对象,该连接对象是在Scheduler的from_settings方法中创建的,在创建请求对象的时候被传递给请求队列累的构造器

      

    LifoQueue后进先出队列

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章