ES运维(六)_segment合并使用原理及场景

二龙3年前技术文章3503

一、背景简介

ES中,每个index(索引)都包含若干个Shard(分片),每个分片底层又是一个个Segment文件(段),每次数据的读写底层就是与一个个段文件的交互,因此ES调优常用的一块就是对段文件的调优,即对每个分片中段文件数据、大小控制,段合并(Merge)等

 

二、原理介绍

001.png

1、 在ES中,单个倒排索引文件被称为Segment,这个Segment一旦生成就不可变更,多个Segments汇总在一起,就是一个Shards

2、 当有新文档写入并且执行Refresh,就会生成一个新Segment。Shard中有一个文件,用来记录所有Segments信息,叫做Commit Point。查询时会同时查询所有Segments,并且对结果汇总。

3、 删除的文档信息,保存到“.del“文件中,查询后会进行过滤。

4、 Segment会定期Merge,合并成一个,同时真正物理删除已删除文档

 

三、优化建议

1、 默认情况下ES会开三个并发自动进行Merge操作,但Merge操作相对比较重,需要优化以降低对系统的影响,这里主要考虑两个方面;

A、 降低分段产生的数量/频率

将Refreash Interval调整到分钟级别(根据业务实时性要求来调整)

适当加大Indices.memory.index_buffer_size值(默认时10%),该参数的意思是当buffer超过这个设置值时会自动触发一次flush的操作

尽量避免文档的更新操作

B、 降低最大分段大小,避免较大的分段继续参与Merge,节省资源。(劣势是最终会有多个分段)

Index.merge.policy.segments_per_tier,默认为10,越小需要越多的合并操作

Index.merge.ppolicy.max_merged_segment,默认5GB,超过此大小以后,就不再参与后续的合并操作

2、 Force Merge

A、 当Index不再有写入操作时,可以先将此索引设置成readonly模式,再进行force merge,可以提升查询速度,减少内存开销

B、 关于force merge时设置的文档数,首先也是越少越好,最好可以设置为1,这样操作时会占用大量网络,IO和CPU,因此考虑到业务影响,可以适当增大分段数(Shard的大小/Index.merge.policy.max_merged_segment的大小=最终分段数)。

 

四、案例分析

1、 某客户es集群,8C32G,4个数据节点,发现业务高峰cpu波动较大,'GET _nodes/hot_threads'命令查看热点线程发现有很多'Lucene Merge Thread',此时建议可以在数据写入低峰执行:

POST /logs-000001/_forcemerge?max_num_segments=1

002.png 

003.png 

2、 某客户ES经常进行update操作,但有些分片的Segment已经接近5G,不再自动刷新,导致很多数据无法物理删除占用大量磁盘空间,此时也可以在业务低峰期做一下此操作,强制合并Segment文件,物理删除已标记删除的文件:

POST /logs-000001/_forcemerge?max_num_segments=1

003.png 

 

备注:es相关操作命令:

1、force merge

POST /logs-000001/_forcemerge?max_num_segments=1

2、查看集群索引segment信息

GET _cat/segments?v

3、获取热点线程

GET _nodes/hot_threads?human=true

4、修改索引参数

PUT /index_name/_settings

{

“refresh_interval”: “1s”,

“segments_per_tier”: 15,

“max_merged_segment”: “2G”

}

相关文章

dolphinscheduler部署-FAQ

dolphinscheduler部署-FAQ

如果是cdh集群会遇到一个问题5678端口被占用这是因为cdh的agent用了5678那我们改下配置文件文件:/opt/apache-dolphinscheduler-3.1.8-bin/st...

 大数据集群监控配置操作指导(二)node_exporter+mysql_exporter部署

大数据集群监控配置操作指导(二)node_exporter+mysql_exporter部署

2.node_exporter监控集群服务器(所有集群服务器)wget https://github.com/prometheus/node_exporter/releases/download/v1...

Debezium部署以及同步之DB2数据到Kafka的同步

Debezium部署以及同步之DB2数据到Kafka的同步

因为Debezium依赖于kafka之上,所以我们先部署kafka和zookeeper(忽略)。1 环境介绍Debezium1.9版本 Db2 11.5版本  附官网:http...

CDP实操--HDFS角色迁移

CDP实操--HDFS角色迁移

    hdfs角色迁移功能在cdp页面中就可以实现该功能,迁移的时间与namenode元数据大小,以及block数量多少有关,注意迁移过程中集群需要关闭,要预留出操作时间窗口。1、页面选择迁移角色2...

ES运维(七)添加sql插件

ES运维(七)添加sql插件

一、概述ElasticSearch安装SQL插件下载地址(中国大佬开发)二、集成sql插件1、下载es-sql插件下载地址: https://github.com/NLPchina/elastics...

ranger对接hbase

ranger对接hbase

前提:本文是基于集群中已经部署了ranger组件和hbase组件的情况下,增加ranger对hbase组件的对接。安装部署1、ranger-hbase插件安装使用ranger2.3版本对接插件。将插件...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。