python爬蟲之-獲取b站搜索頁面所有視頻彈幕

謹以此文表示對一線工作者的感謝!

作爲一個在特殊期間只能宅在家裏做貢獻的小小程序員,真的非常感激那些美麗的白衣天使們。剛好前幾天學會了一些python的小應用,用代碼表達我的感謝!

實現功能:

python爬取嗶哩嗶哩搜索頁面的所有視頻彈幕,建立詞雲

1、爬取頁面:
在這裏插入圖片描述
2、實現思路

實現思路就是從以上頁面中獲取所有視頻的鏈接,比如說第一個視頻的鏈接爲:https://www.bilibili.com/video/av85319370?from=search&seid=4971102771316254686

然後我再從鏈接裏面獲取該視頻號,這個視頻就是av85319370,然後再從該視頻頁面的所有包裏面找到彈幕包,就是以下兩個包:

在這裏插入圖片描述
從這兩個包裏面我們可以知道,第二個包裏面存放有該視頻的所有彈幕信息,但是該視頻鏈接的oid值存放在第一個json數據包裏面,所以就得先獲取第一個包的內容,再獲取第二個包的內容。

將所有視頻的彈幕都得到了之後,再利用jieba庫進行詞語截取,截取完之後將所有詞語數量進行統計,最終得到數量前200的所有詞語,繪製詞雲。。。

實現代碼:

1、所需庫

用於爬取頁面的是 requests,BeautifulSoup, lxml,json
用於中文詞彙分割的是 jieba
製作詞雲相關:wordcloud, numpy, PIL

2、代碼

# coding=utf-8
import requests,lxml,jieba,codecs,re,json
from bs4 import BeautifulSoup
from wordcloud import WordCloud
from collections import Counter
import numpy as np
from PIL import Image

barragepath = 'C:/Users/11037/Desktop/allbarrages.txt' #存放在本地的文件位置
maskpicture = 'C:/Users/11037/Desktop/china.jpeg' #詞雲mask圖片
wordsource = 'C:/Users/11037/Desktop/wordsource.txt' #存放製作圖雲詞彙的文件

barrages = [] #存取所有原始彈幕
barragespages = []  #存放彈幕xml文檔的頁面列表

def getpage(url): #獲取頁面信息
    html = requests.get(url).content.decode('utf-8')
    return html

def getbarrage(html):  #獲取彈幕頁面所有彈幕
    bs = BeautifulSoup(html,'lxml')
    dlist = bs.find_all('d')
    for d in dlist:
        barrages.append(d.string)

def jsongetaid(url):  #從json頁面中獲取cid值
    html = getpage(url)
    data = json.loads(html)
    return str(data['data'][0]['cid'])

def getAllLink(html): #得到所有彈幕的xml文檔頁面
    global barragespages
    jsonlink = []  #json頁面鏈接
    url = 'https://api.bilibili.com/x/player/pagelist?aid='
    end = '&jsonp=jsonp'
    pattern = re.compile('av(\d)*')
    bs = BeautifulSoup(html,'lxml')
    alist = bs.find('ul',class_="video-list clearfix").find_all('a')
    for al in alist:
        link = al['href']
        match = pattern.search(link)
        if match==None:
            alist.remove(al)
        else:
            string = str(match.group())
            string = string.strip('av')
            string = url + string + end
            jsonlink.append(string)
    l2 = list(set(jsonlink))
    l2.sort(key=jsonlink.index)
    jsonlink = l2
    newurl = 'https://api.bilibili.com/x/v1/dm/list.so?oid='
    for link in jsonlink:
        string = newurl + jsongetaid(link)
        barragespages.append(string)

def splitbarrage(barragelist): #統計彈幕列表中重複量前200的詞彙
    file = codecs.open(barragepath,'wb','utf-8')
    for b in barragelist:
        file.write(b)
    file = codecs.open(barragepath,'r','utf-8')
    wordfile = codecs.open(wordsource, 'wb', 'utf-8')
    text = file.read()
    words = [x for x in jieba.cut(text) if len(x) >= 2]
    count = Counter(words).most_common(200)
    patern = re.compile("'(.*)'")
    for c in count:
        match = patern.search(str(c))
        if match:
            string = str(match.group()).strip("'")
            wordfile.write(string + ' ')
    wordfile.close()

def createWold(url): #創建詞雲
    file = codecs.open(url,'r','utf-8')
    text = file.read()
    mask = np.array(Image.open(maskpicture))
    print(text)
    wordcloud = WordCloud(
        background_color="White",
        font_path='C:/Windows/Fonts/msyh.ttc',
        width=2000,height=2000,
        mask=mask).generate(text)
    img = wordcloud.to_image()
    img.save('C:/Users/11037/Desktop/cloudpicture.jpg')
    img.show()

if __name__ == '__main__':
    #搜索界面url
    searchurl = 'https://search.bilibili.com/all?keyword=%E7%99%BD%E8%A1%A3%E5%A4%A9%E4%BD%BF&from_source=nav_search_new'
    html = getpage(searchurl)
    getAllLink(html)
    for pageurl in barragespages: #遍歷搜索界面的所有視頻獲取彈幕
        print('已獲取',str(pageurl),'的彈幕')
        html = getpage(pageurl)
        getbarrage(html)
    splitbarrage(barrages)
    createWold(wordsource)


運行生成的圖片:

在這裏插入圖片描述

在這裏插入圖片描述

最後,祝所有的醫護人員工作順利,身體健康,祝我們的祖國繁榮昌盛!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章