二、關於詞頻統計和詞雲生成的完整代碼
打開python自帶的IDLE,新建一個文件,然後把下面的代碼粘進去保存。
#coding:utf-8
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
f = open(u'e://pythonciyun//test.txt','r').read() #本地建一個文本文檔存放需要分析的文本內容,編碼格式必須爲utf-8
s={}
f=jieba.cut(f)
for w in f:
if len(w) >1:
previous_count=s.get(w,0)
s[w] = previous_count +1
items = list(s.items())
items.sort(key= lambda x:x[1],reverse=True)
wf=open("output.txt",'w') #統計出來的詞頻寫到output文件中
for i in range(100):
word,count = items[i]
print word,count
wf.write(word + ''+str(count)+'\n')
word_freq ={x[0]:x[1] for x in items}
wordcloud = WordCloud(font_path = 'c:\windows\Fonts\MSYH.TTF').fit_words(word_freq)
wf.close()
plt.imshow(wordcloud)
plt.axis("off")
plt.show()
保存後,點擊Run->Run Module運行程序,會在程序所在目錄生成output.txt文件,同時彈出詞雲圖。
統計詞頻和生成詞雲的功能就完成了,剩下的就是打包成exe了。
三、打包生成exe
方法:打開cmd,切換到~\python27\script目錄下,執行命令
pyinstaller -F E:\python文件保存的目錄\abc.py
命令執行成功後,會在script目錄下生成一個dist文件,文件中的exe文件就是生成的可執行程序。
遇到問題:
在打包過程中遇到了很多的問題,花費了很大的精力,就在絕望無路的時候,偶然在一篇博文中找到了解決方法。這個這篇博文的地址,我遇到的問題這篇博文裏解釋的很清楚。http://www.pianshen.com/article/996685916/
另外,打包過程中還出現一個錯誤:str object has no attribute 'items'。這是依賴包的版本問題導致的,需要升級一下setuptools,
pip install -U --pre setuptools