真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

elasticsearch中如何使用ik中文分詞器

這篇文章給大家介紹elasticsearch中如何使用ik中文分詞器,內(nèi)容非常詳細(xì),感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。

我們提供的服務(wù)有:成都網(wǎng)站建設(shè)、成都網(wǎng)站設(shè)計(jì)、微信公眾號開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、衡南ssl等。為成百上千企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的衡南網(wǎng)站制作公司

1、從 github 上找到和本次 es 版本匹配上的 分詞器

# 下載地址
https://github.com/medcl/elasticsearch-analysis-ik/releases

2、使用 es 自帶的插件管理 elasticsearch-plugin 來進(jìn)行安裝

  • 直接從網(wǎng)絡(luò)地址安裝

cd /Users/huan/soft/elastic-stack/es/es02/bin
# 下載插件
./elasticsearch-plugin -v install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.0/elasticsearch-analysis-ik-7.12.0.zip
# 查看插件是否下載成功
./elasticsearch-plugin list
  • 從本地安裝

cd /Users/huan/soft/elastic-stack/es/es02/bin
# 下載插件(file后面跟的是插件在本地的地址)
./elasticsearch-plugin install file:///path/to/plugin.zip

注意:
如果本地插件的路徑中存在空格,需要使用雙引號包裝起來。

3、重啟es

# 查找es進(jìn)程
jps -l | grep 'Elasticsearch'
# 殺掉es進(jìn)程
kill pid
# 啟動es
/Users/huan/soft/elastic-stack/es/es01/bin/elasticsearch -d -p pid01

三、測試 ik 分詞

ik分詞器提供了2種分詞的模式

  1. ik_max_word: 將需要分詞的文本做最小粒度的拆分,盡量分更多的詞。

  2. ik_smart: 將需要分詞的文本做最大粒度的拆分。

1、測試默認(rèn)的分詞效果

語句

GET _analyze
{
  "analyzer": "default",
  "text": ["中文分詞語"]
}

結(jié)果

{
  "tokens" : [
    {
      "token" : "中",
      "start_offset" : 0,
      "end_offset" : 1,
      "type" : "",
      "position" : 0
    },
    {
      "token" : "文",
      "start_offset" : 1,
      "end_offset" : 2,
      "type" : "",
      "position" : 1
    },
    {
      "token" : "分",
      "start_offset" : 2,
      "end_offset" : 3,
      "type" : "",
      "position" : 2
    },
    {
      "token" : "詞",
      "start_offset" : 3,
      "end_offset" : 4,
      "type" : "",
      "position" : 3
    },
    {
      "token" : "語",
      "start_offset" : 4,
      "end_offset" : 5,
      "type" : "",
      "position" : 4
    }
  ]
}

可以看到默認(rèn)的分詞器,對中文的分詞完全無法達(dá)到我們中文的分詞的效果。

2、測試 ik_max_word 的分詞效果

語句

GET _analyze
{
  "analyzer": "ik_max_word",
  "text": ["中文分詞語"]
}

結(jié)果

{
  "tokens" : [
    {
      "token" : "中文",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "分詞",
      "start_offset" : 2,
      "end_offset" : 4,
      "type" : "CN_WORD",
      "position" : 1
    },
    {
      "token" : "詞語",
      "start_offset" : 3,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 2
    }
  ]
}

可以看到基于ik分詞可以達(dá)到我們需要的分詞效果。

3、測試 ik_smart 的分詞效果

語句

GET _analyze
{
  "analyzer": "ik_smart",
  "text": ["中文分詞語"]
}

結(jié)果

{
  "tokens" : [
    {
      "token" : "中文",
      "start_offset" : 0,
      "end_offset" : 2,
      "type" : "CN_WORD",
      "position" : 0
    },
    {
      "token" : "分",
      "start_offset" : 2,
      "end_offset" : 3,
      "type" : "CN_CHAR",
      "position" : 1
    },
    {
      "token" : "詞語",
      "start_offset" : 3,
      "end_offset" : 5,
      "type" : "CN_WORD",
      "position" : 2
    }
  ]
}

4、自定義 ik 的啟用詞和停用詞

1、找到 ik 的配置目錄
${IK_HOME}/config/analysis-ik
/Users/huan/soft/elastic-stack/es/es01/config/analysis-ik
2、修改 IKAnalyzer.cfg.xml 文件



	IK Analyzer 擴(kuò)展配置
	
	custom-ext.dic
	 
	custom-stop.dic
	
	
	
	
3、custom-ext.dic 和 custom-stop.dic 的內(nèi)容

elasticsearch中如何使用ik中文分詞器

注意:
1、自定義分詞的文件必須是UTF-8的編碼。

4、配置文件完整路徑

elasticsearch中如何使用ik中文分詞器

5、查看分詞結(jié)果

elasticsearch中如何使用ik中文分詞器

5、熱更新IK分詞

1、修改 IKAnalyzer.cfg.xml 文件,配置遠(yuǎn)程字典。

 $ cat /Users/huan/soft/elastic-stack/es/es01/config/analysis-ik/IKAnalyzer.cfg.xml                                                                    11.87s ?   16.48G ?   2.68 ?



	IK Analyzer 擴(kuò)展配置
	
	http://localhost:8686/custom-ext.dic
	
	

注意:
1、此處的 custom-ext.dic 文件在下方將會配置到 nginx中,保證可以訪問。

2、http 請求需要返回兩個頭部(header),一個是 Last-Modified,一個是 ETag,這兩者都是字符串類型,只要有一個發(fā)生變化,該插件就會去抓取新的分詞進(jìn)而更新詞庫。
3、http 請求返回的內(nèi)容格式是一行一個分詞,換行符用 \n 即可。 4、在 nginx 的目錄下放置一個 custom-ext.dic 文件

elasticsearch中如何使用ik中文分詞器

多次修改 custom-ext.dic 文件,可以看到分詞的結(jié)果也會實(shí)時變化,如此就實(shí)現(xiàn)了分詞的熱更新。

elasticsearch中如何使用ik中文分詞器

關(guān)于elasticsearch中如何使用ik中文分詞器就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。


分享題目:elasticsearch中如何使用ik中文分詞器
文章URL:http://weahome.cn/article/pdpjdo.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部