NLP自然語言處理中英文分詞工具集錦與基本使用介紹


一、中文分詞工具

1)Jieba

 圖1.png

2)snowNLP分詞工具

 圖2.png

3)thulac分詞工具

 圖3.png

4)pynlpir 分詞工具

圖4.png

5)StanfordCoreNLP分詞工具

1.from stanfordcorenlp import StanfordCoreNLP

2.with StanfordCoreNLP(r'E:\Users\Eternal Sun\PycharmProjects\1\venv\Lib\stanford-corenlp-full-2018-10-05',) as nlp:

3.    print("stanfordcorenlp分詞:\n",nlp.word_tokenize(Chinese))

6)Hanlp分詞工具

 圖5.png

分詞結果如下:

 

圖6.png

二、英文分詞工具

 

1. NLTK:

 

圖7.png

二者之間的區別在於,如果先分句再分詞,那麼將保留句子的獨立性,即生成結果是一個二維列表,而對於直接分詞來說,生成的是一個直接的一維列表,結果如下:

圖8.png

2. SpaCy:

 

圖9.png

3. StanfordCoreNLP:

圖10.png

分詞結果

 圖11.png


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章