Python---爬蟲

         由於之前有些博客寫在了新浪博客上,所以想把一些博客移到這裏。其實這篇博客是半年前寫的。

一:爬蟲是什麼

        是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。如果我們把互聯網比作一張大的蜘蛛網,數據便是存放於蜘蛛網的各個節點,而爬蟲就是一隻小蜘蛛,沿着網絡抓取自己的獵物(數據)爬蟲指的是:向網站發起請求,獲取資源後分析並提取有用數據的程序;從技術層面來說就是 通過程序模擬瀏覽器請求站點的行爲,把站點返回的HTML代碼/JSON數據/二進制數據(圖片、視頻) 爬到本地,進而提取自己需要的數據,存放起來使用;作爲一隻聰明的蜘蛛,你需要用你的腦子,存下你已經看過的頁面地址。這樣,每次看到一個可能需要爬的新鏈接,你就先查查你腦子裏是不是已經去過這個頁面地址。如果去過,那就別去了。

二:爬蟲的基本流程

模擬瀏覽器發送請求(獲取網頁代碼)->提取有用的數據->存放於數據庫或文件中

三:爬蟲的整體思路

先抓取網頁內容----再數據提取-----清洗-----入庫-----定時爬取數據-----發送變更通知

四:需要的模塊

1.發起請求

在使用http庫向目標站點發起請求,即發送一個Request,可使用

Request模塊(缺點:不能執行CSS和JS代碼)

2.獲取響應內容

如果服務器能正常響應,則會得到一個Response

Response包含:html,json,圖片,視頻等

3.解析內容

解析html數據:正則表達式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等

解析json數據:json模塊

解析二進制數據:以wb的方式寫入文件

4、保存數據

數據庫(MySQL,Mongdb、Redis)

文件

五、先看看一些小例子

1、爬獲校花網

1基礎版:

import re

import requests

respose=requests.get('http://www.xiaohuar.com/v/')

# print(respose.status_code)# 響應的狀態碼

# print(respose.content)  #返回字節信息

# print(respose.text)  #返回文本內容

urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S)  #re.S 把文本信息轉換成1行匹配

url=urls[5]

result=requests.get(url)

mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0]

video=requests.get(mp4_url)

with open('D:\\a.mp4','wb') as f:

f.write(video.content)

2.函數封裝版

import re

import requests

import hashlib

import time

# respose=requests.get('http://www.xiaohuar.com/v/')

# # print(respose.status_code)# 響應的狀態碼

# # print(respose.content)  #返回字節信息

# # print(respose.text)  #返回文本內容

# urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S)  #re.S 把文本信息轉換成1行匹配

# url=urls[5]

# result=requests.get(url)

# mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0]

#

# video=requests.get(mp4_url)

#

# with open('D:\\a.mp4','wb') as f:

#     f.write(video.content)

#

def get_index(url):

    respose = requests.get(url)

    if respose.status_code==200:

        return respose.text

def parse_index(res):

    urls = re.findall(r'class="items".*?href="(.*?)"', res,re.S)  # re.S 把文本信息轉換成1行匹配

    return urls

def get_detail(urls):

    for url in urls:

        if not url.startswith('http'):

            url='http://www.xiaohuar.com%s' %url

        result = requests.get(url)

        if result.status_code==200 :

            mp4_url_list = re.findall(r'id="media".*?src="(.*?)"', result.text, re.S)

            if mp4_url_list:

                mp4_url=mp4_url_list[0]

                print(mp4_url)

                # save(mp4_url)

def save(url):

    video = requests.get(url)

    if video.status_code==200:

        m=hashlib.md5()

        m.updata(url.encode('utf-8'))

        m.updata(str(time.time()).encode('utf-8'))

        filename=r'%s.mp4'% m.hexdigest()

        filepath=r'D:\\%s'%filename

        with open(filepath, 'wb') as f:

            f.write(video.content)

def main():

    for i in range(5):

        res1 = get_index('http://www.xiaohuar.com/list-3-%s.html'% i )

        res2 = parse_index(res1)

        get_detail(res2)

if __name__ == '__main__':

    main()

3.併發版(如果一共需要爬30個視頻,開30個線程去做,花的時間就是 其中最慢那份的耗時時間)

import re

import requests

import hashlib

import time

from concurrent.futures import ThreadPoolExecutor

p=ThreadPoolExecutor(30) #創建1個程池中,容納線程個數爲30個;

def get_index(url):

    respose = requests.get(url)

    if respose.status_code==200:

        return respose.text

def parse_index(res):

    res=res.result() #進程執行完畢後,得到1個對象

    urls = re.findall(r'class="items".*?href="(.*?)"', res,re.S)  # re.S 把文本信息轉換成1行匹配

    for url in urls:

        p.submit(get_detail(url))  #獲取詳情頁 提交到線程池

def get_detail(url):  #只下載1個視頻

        if not url.startswith('http'):

            url='http://www.xiaohuar.com%s' %url

        result = requests.get(url)

        if result.status_code==200 :

            mp4_url_list = re.findall(r'id="media".*?src="(.*?)"', result.text, re.S)

            if mp4_url_list:

                mp4_url=mp4_url_list[0]

                print(mp4_url)

                # save(mp4_url)

def save(url):

    video = requests.get(url)

    if video.status_code==200:

        m=hashlib.md5()

        m.updata(url.encode('utf-8'))

        m.updata(str(time.time()).encode('utf-8'))

        filename=r'%s.mp4'% m.hexdigest()

        filepath=r'D:\\%s'%filename

        with open(filepath, 'wb') as f:

            f.write(video.content)

def main():

    for i in range(5):

        p.submit(get_index,'http://www.xiaohuar.com/list-3-%s.html'% i ).add_done_callback(parse_index)

        #1、先把爬主頁的任務(get_index)異步提交到線程池

        #2、get_index任務執行完後,會通過回調函add_done_callback()數通知主線程,任務完成;

        #2、把get_index執行結果(注意線程執行結果是對象,調用res=res.result()方法,才能獲取真正執行結果),當做參數傳給parse_index

        #3、parse_index任務執行完畢後,

        #4、通過循環,再次把獲取詳情頁 get_detail()任務提交到線程池執行

if __name__ == '__main__':

    main()

參考博客:https://www.cnblogs.com/sss4/p/7809821.htm

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章