網絡爬蟲--19.【Scrapy-Redis實戰】分佈式爬蟲爬取房天下--環境準備

0. 思路

準備三臺服務器,分別是Windows、Ubuntu1、Ubuntu2;

其中Windows服務器作爲分佈式爬蟲的Redis服務器;

Ubuntu1和Ubuntu2作爲分佈式爬蟲的爬蟲服務器。

一. 虛擬機Ubuntu0中安裝Redis

安裝:sudo apt-get install redis-server

卸載:sudo apt-get purge --auto-remove redis-server

啓動:sudo service redis-server start

查看:ps aux|grep redis

停止:sudo service redis-server stop

二. 虛擬機Ubuntu1中安裝Redis

同上。

三. Windows服務器上安裝Redis

1.首先安裝Redis,安裝教程:https://www.runoob.com/redis/redis-install.html

2.啓動Redis服務:(切換至Redis安裝目錄中)
redis-server.exe redis.windows.conf

若報錯,按步驟執行以下命令:
redis-cli.exe
shutdown
exit
redis-server.exe redis.windows.conf

3.啓動Redis客戶端
redis-cli.exe

輸入測試數據:
set username fanxindong

get username

在這裏插入圖片描述

四. 安裝cmder

安裝教程及配置:https://www.jianshu.com/p/5b7c985240a7

五. 安裝RedisDesktopManager

安裝教程及配置:https://www.jb51.net/softs/669908.html

安裝後連接Redis,查看測試數據。
在這裏插入圖片描述

六. 修改Windows中的配置文件redis.windows.conf

打開Windows中Redis的配置文件redis.windows.conf

將bind後的ip地址更改爲windows 的ip地址;

這裏爲了爬蟲服務器連接方便,更改爲0.0.0.0

在這裏插入圖片描述

七. Ubuntu連接Windows上 的Redis服務器

在Ubuntu服務器輸入以下指令:

redis-cli -h 172.20.20.2 -p 6379

其中172.20.20.2爲windows的服務器ip地址。

查看測試數據:
在這裏插入圖片描述

-------------------------------------------------------------------------

八.Windows上創建虛擬環境並安裝Scrapy

首先安裝 virtualenv,打開命令行工具,輸入下面的命令即可安裝 virtualenv:

pip install virtualenv

安裝成功後就可以開始創建虛擬環境,指定一個你喜歡的目錄,virtualenv 會把這個新的虛擬環境裝到你指定目錄下。例如我把它裝到 C:\Users\fxd.virtualenvs\ 目錄下,並將虛擬環境命名爲 sipder_env(也可以取任何你喜歡的名字)。在命令欄運行如下命令:

virtualenv C:\Users\fxd\.virtualenvs\sipder_env

虛擬環境已經創建好了,我們需要激活這個環境,進入到剛纔創建的虛擬環境的根目錄,運行 Scripts 目錄下的 activate 程序激活它:

cd C:\Users\fxd\.virtualenvs\sipder_env
.\Scripts\activate

可以看到命令提示符前面多了 (sipder_env),說明我們已經成功激活了虛擬環境,接下來就可以開始安裝 Scrapy了。

使用豆瓣的鏡像源安裝:

pip install Scrapy -i http://pypi.douban.com/simple --trusted-host pypi.douban.com

Scrapy中文文檔:https://scrapy-chs.readthedocs.io/zh_CN/latest/intro/tutorial.html

九.Ubuntu上創建虛擬環境並安裝Scrapy

安裝virtualenv:

pip install virtualenv

創建虛擬環境並自動進進入:

mkvirtualenv -p /usr/bin/python3 spider_env

退出虛擬環境:

deactivate

再次進入虛擬環境的激活指令:

source ./bin/activate

接下來安裝Scrapy,首先安裝依賴:

sudo apt-get install build-essential python3-dev libssl-dev libffi-dev libxml2 libxml2-dev libxslt1-dev zlib1g-dev

安裝scrapy:

pip install Scrapy

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章