【环境配置】Python爬虫框架Scrapy 安装

前言

这篇博客主要用于个人记录吧。

老生常谈了,所谓学习的过程,就是越学越觉得自己知道的东西太少太少。

环境配置,库的安装什么的,很多时候还是蛮“玄学”的

时而秒装,时而…

正文

1、pip install scrapy

运气好的话,在interminal界面(终端界面,就是"cmd"进入的界面,我个人喜欢这么叫,具体怎么称呼,我也没弄清楚,或者叫黑窗口大家更能接受?)可直接安装成功!

不行就话,加个“3”,即 pip3 install scrapy

工科生做实验嘛,就是不断尝试咯。具体什么原理?

不知道。为什么我知道有时加个3可能会成功?

之前遇到过类似的情况呗。(这一点,恰恰反映,知识不总结,不深入探究而导致的零碎感)

2、Anaconda
(1)conda install scrapy
在Anaconda终端中输入该语句,或许能成功吧…

(2)Evironments中搜索安装
这个方法和奇妙,个人体验多数时候不是很好(或者需要配置“清华镜像”什么的吧)
在这里插入图片描述

3、在Pycharm中搜索安装
一个是Anaconda,一个是Pycharm,周围人用的最多的两款python编辑软件

这个方法应该能成功了吧~~~
在这里插入图片描述
我尝试两次成功了,为什么要尝试两次?不知道,超纲了,属于“计算机玄学”范畴的知识了
在这里插入图片描述

4、一个在别的博客中大量出现的办法
(1)下载“包”,安装包(对应正确版本,在相应目录下安装):
下载网址:https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

pip3 install Twisted-19.10.0-cp35-cp35m-win32.whl

pip install Scrapy-2.1.0-py3-none-any.whl

这个网址有一定概率会“error”,我是在装有”谷歌访问助手“的Chrome中下载下来的。

(2)为什么我的python变成3.5版了?
我是知道的,不论是在生活中,还是在计算机世界的中,有的问题是终究解决不了的,你可以猜测,可以”搁置争议“,但有些问题就是解决不了,永远也无法知道确切的答案的!
这个时候怎么办?“不知道”,然后继续生活!
(我确切的知道我的python版本之前是3.6的,Anaconda环境的python是3.7的,今天一看是3.5,而且是system32,嗯,就这样吧)

吐槽:

这里原本是介绍“清华镜像”的

CSDN非说我内容涉及“翻墙”…

只好作罢

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章