用Python來抓取網頁是很容易的,前面也寫過很多類似的內容,但在Python3.0中,內容多多少少有些不同,下面進行一下介紹.
簡單的抓取網頁:
這樣雖然簡單,但如果需要進一步精細的控制就略顯不足了,在Python 3.0中,將2.x中urllib和urllib2進行了整合,使得抓取網頁變得足夠的簡單了.具體的,大家都知道,網頁抓取實際上分爲2步:第一步是發出請求,第二步接收服務器返回的數據,在Python中也是這麼做的.
上面的是POST的數據,衆所周知,還有一種GET的,怎麼做了?
上面2個例子中的response對象有2個常用的方法,geturl(),info()
geturl()的設置是爲了辨別是否有服務器端的網址重定向,而info()則包含了一系列的信息.
另外一個重要的內容就是錯誤處理了,這裏錯誤處理比較簡單,貼個代碼大家自己琢磨吧
最後一個是關於認證的了,網頁認證如果大家有相關的網址請發一個過來(沒有測試不方便發),關於Cookie認證的以後再寫