在爬蟲過程中我們難免會出現很多錯誤,但是對於一些不是很重要或者你想快速知道出錯的原因,我們可以利用異常處理
首先用一段代碼運算一下:
例如我們想訪問多個網址,但是我們不想中途停下來
import urllib.request as request
list = [
"https://www.baidu.com/",
"https://www.baidu.com/",
"http://halihkawnkfhgjkfgkfkjhfkawhknh22.com/",#這是我亂打的一個網址,所以訪問不了
"https://www.baidu.com/",
]
i=0
for url in list:#對列表元素循環
req = request.urlopen(url)
i+=1
print('第',i,'請求成功!')
這時它就偏偏出了錯,而且停止運行了,
這時候異常處理就派上大用場了
import urllib.request as request
list = [
"https://www.baidu.com/",
"https://www.baidu.com/",
"http://halihkawnkfhgjkfgkfkjhfkawhknh22.com/",
"https://www.baidu.com/",
]
i=0
for url in list:
try:
req = request.urlopen(url)
i+=1
print('第', i, '請求成功!')
except Exception as e:#注意異常處理的類型很多,這裏用最常見的一種
print(e)