Linux和Windows下elasticsearch安裝和使用ik分詞器

下載IK分詞器:https://github.com/medcl/elasticsearch-analysis-ik/releases

必須跟elasticsearch版本一致,可以選擇版本下載,沒有對應版本可以翻頁找找看 

開始安裝

Windows下安裝:

1.在elasticsearch的plugins目錄下創建名爲ik的目錄;

2.再將下載的elasticsearch-analysis-ik-7.6.2.zip壓縮包解壓到這個新創建的ik目錄下,只需要elasticsearch-analysis-ik-7.6.2.zip下的內容,不需要再生成一個elasticsearch-analysis-ik-7.6.2文件夾,如圖所示:

 

Linux下安裝同理:

單節點與Windows相同操作

集羣:

1.停止集羣中所有機器的elasticsearch進程,在所有機器上做這些操作:在elasticsearch的plugins目錄下創建名爲ik的目錄,再將下載的elasticsearch-analysis-ik-7.6.2.zip壓縮包複製到這個新創建的ik目錄下;

2.在elasticsearch-analysis-ik-7.6.2.zip所在文件夾下,執行目錄unzip elasticsearch-analysis-ik-7.6.2.zip進行解壓;

3.確認elasticsearch-analysis-ik-7.6.2.zip已經複製到每個elasticsearch的plugins/ik目錄下並解壓後,將所有elasticsearch啓動 ;

 elasticsearch head上測試:

POST desktop_message/_analyze

{
  "text": "我是測試分詞",
  "analyzer": "ik_max_word"
}

desktop_message爲索引名稱

1、ik_max_word

會將文本做最細粒度的拆分,比如會將“中華人民共和國人民大會堂”拆分爲“中華人民共和國、中華人民、中華、華人、人民共和國、人民、共和國、大會堂、大會、會堂等詞語。

2、ik_smart
會做最粗粒度的拆分,比如會將“中華人民共和國人民大會堂”拆分爲中華人民共和國、人民大會堂。

結果:

{
  "tokens": [
    {
      "token": "我",
      "start_offset": 0,
      "end_offset": 1,
      "type": "CN_CHAR",
      "position": 0
    },
    {
      "token": "是",
      "start_offset": 1,
      "end_offset": 2,
      "type": "CN_CHAR",
      "position": 1
    },
    {
      "token": "測試",
      "start_offset": 2,
      "end_offset": 4,
      "type": "CN_WORD",
      "position": 2
    },
    {
      "token": "分詞",
      "start_offset": 4,
      "end_offset": 6,
      "type": "CN_WORD",
      "position": 3
    }
  ]
}

結果截圖:

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章