ES运维(六)_segment合并使用原理及场景

二龙3年前技术文章4274

一、背景简介

ES中,每个index(索引)都包含若干个Shard(分片),每个分片底层又是一个个Segment文件(段),每次数据的读写底层就是与一个个段文件的交互,因此ES调优常用的一块就是对段文件的调优,即对每个分片中段文件数据、大小控制,段合并(Merge)等

 

二、原理介绍

001.png

1、 在ES中,单个倒排索引文件被称为Segment,这个Segment一旦生成就不可变更,多个Segments汇总在一起,就是一个Shards

2、 当有新文档写入并且执行Refresh,就会生成一个新Segment。Shard中有一个文件,用来记录所有Segments信息,叫做Commit Point。查询时会同时查询所有Segments,并且对结果汇总。

3、 删除的文档信息,保存到“.del“文件中,查询后会进行过滤。

4、 Segment会定期Merge,合并成一个,同时真正物理删除已删除文档

 

三、优化建议

1、 默认情况下ES会开三个并发自动进行Merge操作,但Merge操作相对比较重,需要优化以降低对系统的影响,这里主要考虑两个方面;

A、 降低分段产生的数量/频率

将Refreash Interval调整到分钟级别(根据业务实时性要求来调整)

适当加大Indices.memory.index_buffer_size值(默认时10%),该参数的意思是当buffer超过这个设置值时会自动触发一次flush的操作

尽量避免文档的更新操作

B、 降低最大分段大小,避免较大的分段继续参与Merge,节省资源。(劣势是最终会有多个分段)

Index.merge.policy.segments_per_tier,默认为10,越小需要越多的合并操作

Index.merge.ppolicy.max_merged_segment,默认5GB,超过此大小以后,就不再参与后续的合并操作

2、 Force Merge

A、 当Index不再有写入操作时,可以先将此索引设置成readonly模式,再进行force merge,可以提升查询速度,减少内存开销

B、 关于force merge时设置的文档数,首先也是越少越好,最好可以设置为1,这样操作时会占用大量网络,IO和CPU,因此考虑到业务影响,可以适当增大分段数(Shard的大小/Index.merge.policy.max_merged_segment的大小=最终分段数)。

 

四、案例分析

1、 某客户es集群,8C32G,4个数据节点,发现业务高峰cpu波动较大,'GET _nodes/hot_threads'命令查看热点线程发现有很多'Lucene Merge Thread',此时建议可以在数据写入低峰执行:

POST /logs-000001/_forcemerge?max_num_segments=1

002.png 

003.png 

2、 某客户ES经常进行update操作,但有些分片的Segment已经接近5G,不再自动刷新,导致很多数据无法物理删除占用大量磁盘空间,此时也可以在业务低峰期做一下此操作,强制合并Segment文件,物理删除已标记删除的文件:

POST /logs-000001/_forcemerge?max_num_segments=1

003.png 

 

备注:es相关操作命令:

1、force merge

POST /logs-000001/_forcemerge?max_num_segments=1

2、查看集群索引segment信息

GET _cat/segments?v

3、获取热点线程

GET _nodes/hot_threads?human=true

4、修改索引参数

PUT /index_name/_settings

{

“refresh_interval”: “1s”,

“segments_per_tier”: 15,

“max_merged_segment”: “2G”

}

相关文章

CPU--上下文切换

CPU--上下文切换

一、概述1、Linux 是一个多任务操作系统,它支持远大于 CPU 数量的任务同时运行。当然,这些任务实际上并不是真的在同时运行,而是因为系统在很短的时间内,将 ...

Hive优化之SQL的优化(三)

Hive优化之SQL的优化(三)

     Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hi...

hive 报 找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster

hive 报 找不到或无法加载主类 org.apache.hadoop.mapreduce.v2.app.MRAppMaster

解决办法:关键需要配置两个配置:mapred-site.xml 和 yarn-site.xml下面配置hadoop classpath。先运行shell命令:hadoop classpath添加一个配...

Java-API对HDFS的操作(IDEA版)

Java-API对HDFS的操作(IDEA版)

前期工作首先就是安装maven在win系统下不配置hadoop环境,直接运行代码会报错,显示缺少winutils.exe 和 hadoop.dll 两个文件首先添加pom.xml文件  <dep...

trino组件对接hudi(四)

trino组件对接hudi(四)

安装部署本文是基于已经部署了trino组件的环境上,进行的trino和hudi的对接,使trino组件能够正常查询hudi表。1、增加hudi connector配置在trino安装部署下的etc/c...

Hive优化之监控(四)

Hive优化之监控(四)

    Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hive调优是必...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。