Python3.0 如何抓取網頁

用Python來抓取網頁是很容易的,前面也寫過很多類似的內容,但在Python3.0中,內容多多少少有些不同,下面進行一下介紹.

簡單的抓取網頁:

這樣雖然簡單,但如果需要進一步精細的控制就略顯不足了,在Python 3.0中,將2.x中urllib和urllib2進行了整合,使得抓取網頁變得足夠的簡單了.具體的,大家都知道,網頁抓取實際上分爲2步:第一步是發出請求,第二步接收服務器返回的數據,在Python中也是這麼做的.

上面的是POST的數據,衆所周知,還有一種GET的,怎麼做了?

上面2個例子中的response對象有2個常用的方法,geturl(),info()

geturl()的設置是爲了辨別是否有服務器端的網址重定向,而info()則包含了一系列的信息.

另外一個重要的內容就是錯誤處理了,這裏錯誤處理比較簡單,貼個代碼大家自己琢磨吧

最後一個是關於認證的了,網頁認證如果大家有相關的網址請發一個過來(沒有測試不方便發),關於Cookie認證的以後再寫

發佈了61 篇原創文章 · 獲贊 4 · 訪問量 22萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章