【環境配置】Python爬蟲框架Scrapy 安裝

前言

這篇博客主要用於個人記錄吧。

老生常談了,所謂學習的過程,就是越學越覺得自己知道的東西太少太少。

環境配置,庫的安裝什麼的,很多時候還是蠻“玄學”的

時而秒裝,時而…

正文

1、pip install scrapy

運氣好的話,在interminal界面(終端界面,就是"cmd"進入的界面,我個人喜歡這麼叫,具體怎麼稱呼,我也沒弄清楚,或者叫黑窗口大家更能接受?)可直接安裝成功!

不行就話,加個“3”,即 pip3 install scrapy

工科生做實驗嘛,就是不斷嘗試咯。具體什麼原理?

不知道。爲什麼我知道有時加個3可能會成功?

之前遇到過類似的情況唄。(這一點,恰恰反映,知識不總結,不深入探究而導致的零碎感)

2、Anaconda
(1)conda install scrapy
在Anaconda終端中輸入該語句,或許能成功吧…

(2)Evironments中搜索安裝
這個方法和奇妙,個人體驗多數時候不是很好(或者需要配置“清華鏡像”什麼的吧)
在這裏插入圖片描述

3、在Pycharm中搜索安裝
一個是Anaconda,一個是Pycharm,周圍人用的最多的兩款python編輯軟件

這個方法應該能成功了吧~~~
在這裏插入圖片描述
我嘗試兩次成功了,爲什麼要嘗試兩次?不知道,超綱了,屬於“計算機玄學”範疇的知識了
在這裏插入圖片描述

4、一個在別的博客中大量出現的辦法
(1)下載“包”,安裝包(對應正確版本,在相應目錄下安裝):
下載網址:https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

pip3 install Twisted-19.10.0-cp35-cp35m-win32.whl

pip install Scrapy-2.1.0-py3-none-any.whl

這個網址有一定概率會“error”,我是在裝有”谷歌訪問助手“的Chrome中下載下來的。

(2)爲什麼我的python變成3.5版了?
我是知道的,不論是在生活中,還是在計算機世界的中,有的問題是終究解決不了的,你可以猜測,可以”擱置爭議“,但有些問題就是解決不了,永遠也無法知道確切的答案的!
這個時候怎麼辦?“不知道”,然後繼續生活!
(我確切的知道我的python版本之前是3.6的,Anaconda環境的python是3.7的,今天一看是3.5,而且是system32,嗯,就這樣吧)

吐槽:

這裏原本是介紹“清華鏡像”的

CSDN非說我內容涉及“翻牆”…

只好作罷

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章