ES运维(八)添加IK分词器
一、概述
ES自带standard analyzer、simple analyzer、whitespace analyzer、stop analyzer、language analyzer、pattern analyzer等6种分词器。这里介绍ik分词器集成(es版本为7.12.1)
二、集成IK分词器
1、下载分词器包
下载地址: https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip

2、分发插件
所有es节点均要上传: /opt/cloudera/parcels/ELASTICSEARCH/lib/elasticsearch/plugins/ 分发后重启es集群


三、使用ik分词器
1、创建索引并指导分词器
PUT hhz_index
{
    "settings": {
        "analysis": {
            "analyzer": {
                "ik": {
                    "tokenizer": "ik_max_word"
                }
            }
        }
    },
    "mappings": {
        "properties": {
            "title": {
                "type": "text"
            },
            "content": {
                "type": "text",
                "analyzer": "ik_max_word"
            }
        }
    }
}
2、使用ik分词器
POST _analyze
{
  "analyzer": "ik_smart",
  "text": ["我是河南人"]
}
3、将文本做细粒度拆分
POST _analyze
{
  "analyzer": "ik_max_word",
  "text": ["我是河南人"]
}




