kafka常见配置参数解析

浩客7个月前技术文章164

broker.id

broker 的全局唯一编号,不能重复,只能是数字

num.network.threads=3

处理网络请求的线程数量

num.io.threads=8

用来处理磁盘 IO 的线程数量

socket.send.buffer.bytes=102400

发送套接字的缓冲区大小

socket.receive.buffer.bytes=102400

接收套接字的缓冲区大小

socket.request.max.bytes=104857600

请求套接字的缓冲区大小

num.partitions=1

topic 在当前 broker 上的分区个数

num.recovery.threads.per.data.dir=1

用来恢复和清理 data 下数据的线程数量

offsets.topic.replication.factor=1

每个 topic 创建时的副本数,默认时 1 个副本

log.retention.hours=168

segment 文件保留的最长时间,超时将被删除

log.roll.hours

即使文件没有到达log.segment.bytes,只要文件创建时间到达此属性,就会创建新文件。这个设置也可以有topic层面的设置进行覆盖。默认4*7

log.cleanup.policy

log清除策略。默认delete

log.retention.bytes

每个topic下每个partition保存数据的总量。注意:

1、这是每个partitions的上限,因此这个数值乘以partitions的个数就是每个topic保存的数据总量。如果log.retention.hours和log.retention.bytes都设置了,则超过了任何一个限制都会造成删除一个段文件。2、这项设置可以由每个topic设置时进行覆盖。

log.cleaner.enable

开启一些清理线程,执行定时清理任务。在kafka 0.9.0之后 log.cleaner.enable 默认是true

log.segment.bytes=1073741824

每个 segment 文件的大小,默认最大 1G

log.segment.delete.delay.ms

日志文件被真正删除前的保留时间

log.retention.check.interval.ms=300000

检查过期数据的时间,默认 5 分钟检查一次是否数据过期

log.dirs=/opt/module/kafka/datas

kafka 运行日志(数据)存放的路径,路径不需要提前创建,kafka 自动帮你创建,可以配置多个磁盘路径,路径与路径之间可以用","分隔

zookeeper.connect

配置连接 Zookeeper 集群地址(在 zk 根目录下创建/kafka,方便管理)

zookeeper.connection.timeout.ms

客户端等待和zookeeper建立连接的最大时间。默认6000

日志刷新策略

Kafka的日志实际上是开始是在缓存中的,然后根据策略定期一批一批写入到日志文件中去,以提高吞吐率。

log.flush.interval.messages

消息达到多少条时将数据写入到日志文件

log.flush.interval.ms

当达到该时间时,强制执行一次flush

log.flush.scheduler.interval.ms

周期性检查,是否需要将信息flush

相关文章

Hive优化之SQL的优化(三)

Hive优化之SQL的优化(三)

     Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hi...

Hadoop3.2.4纠删码实操(三)

Hadoop3.2.4纠删码实操(三)

1、纠删码实操1.在HDFS中建立以下三个目录,并都设置为XOR-2-1-1024k策略。[root@hd2 hadoop]# hadoop fs -mkdir /ec_xor_s SLF4J: C...

oracle PUS.SPU.CPU.BP.RU.RUR概念简介

PUS.SPU.CPU.BP.RU.RUR概念介绍PSU(Patch Set Updates):Oracle 选取在每个季度用户下载数量最多,并且得到验证具有较低风险的补丁放入到每个季度的PSU中,修...

Containerd OCI runtime create failed

Containerd OCI runtime create failed

1、背景Kubernetes 集群新增 worker 节点(centos7、containerd),发现容器一直启动不起来。2、报错信息经查看系统 message 日志发现如下报错信息:rpc err...

开源大数据集群部署(六)Keytab文件生成

开源大数据集群部署(六)Keytab文件生成

1、 创建keytab文件除了使用明文密码登录之外,Kerberos还可以使用keytab密码文件登陆,现在为testcuser创建它的keytab文件ipa-getkeytab -s ipa.hdp...

大数据监控系列(一)——Prometheus+Grafana监控概述

大数据监控系列(一)——Prometheus+Grafana监控概述

1 概述这是介绍Prometheushe和Grafana主要是为了监控大数据产品,数栈平台也是使用Prometheushe+Grafana作为底层大数据组件的监控,并且均有配置模板,导入即在Grafa...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。