iOS程序員如何使用Python寫網路爬蟲
寫網絡爬蟲,除了c/c++,第二門語言最好的選擇就是python.
原因就是
1.語法簡單
2.庫太多,隨便想要什麼功能的庫都找得到,簡直編程界的哆啦A夢.
3.語法優美,不信?你去看看python超過兩千行的代碼再回頭看看用oc寫的超過兩千行的代碼,oc寫的簡直醜到極致(沒命名空間,點語法調用和括號調用混用).
爲什麼要會寫爬蟲?
春節前有一件活無人認領,我就自告奮勇認領了,具體如下:
自己寫程序在豆瓣讀書上抓取人
熊節覺得一個好的程序員應該讀過那20本好書 ——《重構》《精益創業》《敏捷軟件開發》《測試驅動開發》等等。他在爲ThoughtWorks組建成都分公司團隊的時候,發愁正統招聘方法太慢了。於是,他花了幾個晚上用自己高中自學的水貨代碼水平寫了一個程序,去抓取豆瓣上讀過這些技術書籍的人。然後不斷遞歸,再抓到這些人都讀過其它什麼書,再繼續抓讀過那些書的人。抓了幾萬人之後,他再用Hadoop來分析,篩選出了幾十個技術大牛。
他把這些大牛的豆瓣賬號扔給了公司女HR,讓HR去一個個發豆郵勾搭。
春節期間斷斷續續邊看邊學寫了個爬豆瓣上優秀iOS開發人員的爬蟲.所以感覺iOS開發人員有必要掌握這項技術.
再舉個例子,你如果想自己弄個app,例如每日精選美女之類的app,你服務端總得有圖吧,怎麼弄?自己用爬蟲爬啊,爬到鏈接了塞到數據庫裏,傳個json,app直接sdwebimage就好了.多爽!
廢話不多說.開始寫.
我先假設你用的是mac,然後mac都預裝了python2.x,然後呢,你有了python沒用,你得有庫.沒庫怎麼幹活?怎麼安裝庫呢?python界也有個類似於我們iOS開發裏cocoapods的東西,這個東西叫做pip.
pip和cocoapods用起來的命令都極其類似,我們只需要兩個庫,一個叫做urllib2,一個叫做beautifulsoup.
urllib2是幹什麼的呢?它的作用就是把網頁down下來,然後你就可以分析網頁了.
beautifulsoup幹什麼的呢?你用urllib2把網頁down下來了之後,裏面都是html+css什麼的,你想要從亂七八糟的一堆html裏面找到正確的圖片鏈接那可不是件簡單的事,據我這幾天的學習,做法無非兩個,一個是自己寫正則表達式然後用一個叫re的python庫,另一個是使用lxml解析xpath.這兩個說實話都不太好用,一個正則就夠你吃一壺的.後來我搜索了很久,發現了一個庫叫做beautifulsoup,用這個庫解析html超級好用.
然後你們打開terminal敲入下面這個命令.
pip install BeautifulSoup
然後就會自動幫你安裝BeautifulSoup這個東西了.urllib2因爲是自帶的,所以不用你下載了.
好的我們打www.dbmeizi.com,這個邪惡的網站,首頁都是軟妹子.直接右鍵打開源文件.
你看到的是這些東西.
看上去和亂碼沒什麼區別,但是我們需要仔細觀察.終於找到了圖片的鏈接.
圖片鏈接就在li這個標籤下地img標籤裏.現在我們需要做的就是嘗試着把這種類型的li從所有html中分離出來.我們可以看到li這個標籤有個屬性叫做class,這個屬性的值是class="span3",我們把這段話li class="span3"
搜索一下,我們發現有20個結果.恰巧,我們這個頁面的圖片也只有20個,那麼可以確定的是我們找到了區別於其他標籤的唯一性.
再仔細分析下,img這個標籤在li這個標籤裏有且只有一個.那麼,也就是說,我們先搜索出所有符合條件的li標籤,然後找到裏面的img標籤就可以找到所有的圖片鏈接了.
然後看代碼.
#!/usr/bin/python
#-*- coding: utf-8 -*-
#encoding=utf-8
import urllib2
import urllib
import os
from BeautifulSoup import BeautifulSoup
def getAllImageLink():
html = urllib2.urlopen('http://www.dbmeizi.com').read()
soup = BeautifulSoup(html)
liResult = soup.findAll('li',attrs={"class":"span3"})
for li in liResult:
imageEntityArray = li.findAll('img')
for image in imageEntityArray:
link = image.get('data-src')
imageName = image.get('data-id')
filesavepath = '/Users/weihua0618/Desktop/meizipicture/%s.jpg' % imageName
urllib.urlretrieve(link,filesavepath)
print filesavepath
if __name__ == '__main__':
getAllImageLink()
我們來一句一句分析下.其實python的語法超級簡單.
凡是#打頭的就是python裏面的註釋語句類似於oc裏的//.
分別說明我們的環境是python,編碼是utf-8
然後import了四個庫,分別是urllib2,urllib,os,和beautifulsoup庫.
導入beautifulsoup庫的方式和其他三個不太一樣.我暫時也不清楚爲什麼python用這種導入方式,不過照貓畫虎就行了.
然後def打頭的就是定義一個函數,python裏面是不用分號做句與句的分隔符的.他用縮進來表示.與def縮進一個tab的都是函數體.
html = urllib2.urlopen('http://www.dbmeizi.com').read()
這句很簡單,就是讀取網頁的html.然後把值賦給html這個變量.python裏聲明變量前面不用加任何東西,不用加聲明語句和變量類型,就連javascript聲明變量還要加個var呢.
我們獲取了網頁的html之後呢,聲明瞭一個beautifulsoup變量soup,用來準備解析html.
liResult = soup.findAll('li',attrs={"class":"span3"})
這句話的意思就是,尋找html中所有li標籤,並且這個li標籤有個屬性class,class的值是span3.
注意這個findAll函數,有點常識的話你應該清楚,凡是帶all的函數基本上返回的都是一個數組,所以我們liResult這個變量實際上是一個數組.
for li in liResult:
這句話基本和oc裏的遍歷數組語法完全一樣.就是遍歷liResult裏的每一個變量.那麼每一個變量就是一個\
●標籤.
imageEntityArray = li.findAll('img')
獲得了li標籤,我們再找出所有的img標籤.
一樣的道理,遍歷所有img標籤(實際上只有一個).
link = image.get('data-src')
imageName = image.get('data-id')
這兩句的意思就是,獲取img標籤裏的'data-src'屬性和'data-id'屬性,data-src就是我們最想要的圖片鏈接了.data-id我們會用來當做下載圖片之後的名字.
filesavepath = '/Users/weihua0618/Desktop/meizipicture/%s.jpg' % imageName
urllib.urlretrieve(link,filesavepath)
這兩句,第一句是設置一個文件存放地址,第二句用urllib這個庫的urlretrieve這個方法下載我們的圖片,並且把圖片放到剛纔的路徑裏.
好了,我們的圖片就下載完了.
說說我是怎麼爬蟲所有豆瓣ios開發的,我先找到所有標籤爲ios開發的書籍,然後把所有書的id抓到,然後用id找到所有閱讀過書的用戶id,把所有用戶id抓下來之後用hadoop分析,哪些用戶id讀過的書最多,列出前一百個.然後,你們懂得...(昨天我的ip還是mac地址已經被豆瓣封了)
我感覺,我可以在簡歷上鄭重的寫下"精通python和大數據分析" -_-!