1. 準備工作
-
首先安裝好python (我用的是3.7版本)。
-
再下載好幾個擴展庫 (在cmd下執行下面語句即可)
pip install re # 正則表達式庫
pip install collections # 詞頻統計庫
pip install numpy # numpy數據處理庫
pip install jieba # 結巴分詞
pip install wordcloud # 詞雲展示庫
pip install PIL # 圖像處理庫
pip install matplotlib.pyplot # 圖像展示庫
- 準備好你打算統計的文件,命名爲article.txt,保存到與程序文件相同目錄中
- 準備一個做背景的圖片,命名爲wordcloud.jpg,同樣保存到與程序文件相同目錄中
2. 編寫代碼
新建一個python文件,命名爲 wordcount.py,輸入如下代碼:
# 導入擴展庫
import re # 正則表達式庫
import collections # 詞頻統計庫
import numpy as np # numpy數據處理庫
import jieba # 結巴分詞
import wordcloud # 詞雲展示庫
from PIL import Image # 圖像處理庫
import matplotlib.pyplot as plt # 圖像展示庫
# 讀取文件
fn = open('article.txt') # 打開文件
string_data = fn.read() # 讀出整個文件
fn.close() # 關閉文件
# 文本預處理
pattern = re.compile(u'\t|\n|\.|-|:|;|\)|\(|\?|"') # 定義正則表達式匹配模式
string_data = re.sub(pattern, '', string_data) # 將符合模式的字符去除
# 文本分詞
seg_list_exact = jieba.cut(string_data, cut_all = False) # 精確模式分詞
object_list = []
remove_words = [u'的', u',',u'和', u'是', u'隨着', u'對於', u'對',u'等',u'能',u'都',u'。',u' ',u'、',u'中',u'在',u'了',
u'通常',u'如果',u'我們',u'需要'] # 自定義去除詞庫
for word in seg_list_exact: # 循環讀出每個分詞
if word not in remove_words: # 如果不在去除詞庫中
object_list.append(word) # 分詞追加到列表
# 詞頻統計
word_counts = collections.Counter(object_list) # 對分詞做詞頻統計
word_counts_top10 = word_counts.most_common(10) # 獲取前10最高頻的詞
print (word_counts_top10) # 輸出檢查
# 詞頻展示
mask = np.array(Image.open('wordcloud.jpg')) # 定義詞頻背景
wc = wordcloud.WordCloud(
font_path='C:/Windows/Fonts/simhei.ttf', # 設置字體格式
mask=mask, # 設置背景圖
max_words=200, # 最多顯示詞數
max_font_size=100 # 字體最大值
)
wc.generate_from_frequencies(word_counts) # 從字典生成詞雲
image_colors = wordcloud.ImageColorGenerator(mask) # 從背景圖建立顏色方案
wc.recolor(color_func=image_colors) # 將詞雲顏色設置爲背景圖方案
plt.imshow(wc) # 顯示詞雲
plt.axis('off') # 關閉座標軸
plt.show() # 顯示圖像
3.運行
運行前檢查自己的統計文件和背景文件的地址是否填寫正確!
如果一切正常,將會是如下結果:
大功告成!
後話
詞雲圖其實也可以玩出很多花樣來,例如:
圖片來自:圖源1
甚至還可以做成這樣子的:
圖片來自:圖源2
小結:
以上那些有意思的詞圖只需要選好一個合適的背景圖即可,同時現在也有很多在線製作雲圖的網站也挺不錯的,詞雲圖從大了講就是數據可視化,從小了講只是個雕蟲小技,“形式大於內容”,醬紫~