爬虫学习

入门:urllib库学习

#从urllib中导入request
from urllib import request
#如果因为是https需要ssl证书验证发生错误的,需要导入ssl库以及下面的代码
import ssl
ssl._create_default_https_context = ssl._create_default_https_context

url = ‘http://www.baidu.com’
#使用urlopen爬取网页
headers = {
‘User-Agent’:‘Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.70 Safari/537.36’
}
resp = request.urlopen(url)
#resp.read()阅读到的是编码过的内容,需要decode()对中文及符号进行解码才能看懂
print(resp.read().decode())

#urlretrieve直接保存爬取到的url内容
request.urlretrieve(url,‘baidu.html’)

#代理实现
#1、使用proxyhandler传入代理,构建一个handler
#可以从一些免费的代理网站找代理,例如快代理等
handler = request.ProxyHandler({‘http’:‘106.14.58.95:8083’})
#2、使用handler构建一个opener,其实urlopen底层调用的也是opener的方法
opener = request.build_opener(handler)
#3、使用opener去发送请求,这个相当于就是urlopen的底层
resp = opener.open(url)
print(resp.read().decode())

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章