零基礎 實現基於python2.7 的中文詞頻統計和詞雲繪製(二)

二、關於詞頻統計和詞雲生成的完整代碼

打開python自帶的IDLE,新建一個文件,然後把下面的代碼粘進去保存。

#coding:utf-8
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt

import sys
reload(sys)
sys.setdefaultencoding('utf-8')
f = open(u'e://pythonciyun//test.txt','r').read() #本地建一個文本文檔存放需要分析的文本內容,編碼格式必須爲utf-8
s={}
f=jieba.cut(f)
for w in f:
    if len(w) >1:
        previous_count=s.get(w,0)
        s[w] = previous_count +1
items = list(s.items())
items.sort(key= lambda x:x[1],reverse=True)
wf=open("output.txt",'w')  #統計出來的詞頻寫到output文件中
for i in range(100):
    word,count = items[i]
    print word,count
    wf.write(word + ''+str(count)+'\n')
word_freq ={x[0]:x[1] for x in items}
wordcloud = WordCloud(font_path = 'c:\windows\Fonts\MSYH.TTF').fit_words(word_freq)
wf.close()
plt.imshow(wordcloud)
plt.axis("off")
plt.show()

保存後,點擊Run->Run Module運行程序,會在程序所在目錄生成output.txt文件,同時彈出詞雲圖。

統計詞頻和生成詞雲的功能就完成了,剩下的就是打包成exe了。

三、打包生成exe

方法:打開cmd,切換到~\python27\script目錄下,執行命令

pyinstaller -F  E:\python文件保存的目錄\abc.py

命令執行成功後,會在script目錄下生成一個dist文件,文件中的exe文件就是生成的可執行程序。

遇到問題:

在打包過程中遇到了很多的問題,花費了很大的精力,就在絕望無路的時候,偶然在一篇博文中找到了解決方法。這個這篇博文的地址,我遇到的問題這篇博文裏解釋的很清楚。http://www.pianshen.com/article/996685916/

另外,打包過程中還出現一個錯誤:str object has no attribute 'items'。這是依賴包的版本問題導致的,需要升級一下setuptools,

pip install -U --pre setuptools

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章