Hdfs3.x新特性详解

九月1年前技术文章587

HDFS Disk Balancer(磁盘均衡器)

HDFS Disk Balancer与HDFS Balancer的区别?

两者都是实现负载均衡功能

HDFS Balancer是之前Hadoop2.x中本身存在的,主要是多个DataNode节点之间的数据的平衡。

HDFS Disk Balancer是Hadoop3中新出现的,主要是为了DataNode节点内部的磁盘的负载均衡,一个DataNode节点中包含多个磁盘,如果一个磁盘数据比较多,HDFS Disk Balancer就会将这个磁盘中的数据进行迁移,迁移到datanode别的磁盘中。

HDFS Disk Balancer功能

数据传播报告、磁盘平衡,主要是根据卷(磁盘)平衡密度和节点平衡密度(越低越好)进行磁盘平衡。

HDFS Disk Balancer相关操作

Hadoop3中默认开启disk balancer ,可以从hdfs-site.xml中配置dfs.disk.balancer.enabled参数值进行选择是否开启该功能。

plan计划
hdfs diskbalancer -plan <datanode>
execute执行:针对为其生成执行计划的datanode
hdfs diskbalancer -execute <Json file path>
query查询:从运行计划的datanode获取磁盘平衡器的当前状态
hdfs diskbalancer -query <datanode>
cancel取消:取消运行计划
hdfs diskbalancer -cancel <Json file path>
hdfs diskbalancer -cancel planid node <nodename>
report汇报:
hdfs diskbalancer -fs hdfs路径 -report

HDFS Erasure Coding(纠删码)

产生背景:3副本策略引起的磁盘和网络带宽的消耗

image.png

Erasure Coding:是一种编码容错技术,最早开始用于通信行业数据传输中的数据恢复,通过对数据分块,计算出校验数据,使每个部分的数据产生关联性,当一部分数据块丢失时,可以利用数据块和校验块反向推算出丢失的数据块。

图2.png

原理:

图3.png


HDFS Erasure Coding架构

为了支持纠删码,HDFS做了一些架构上的调整。

namenode扩展

条带化管理,即hdfs文件在逻辑上由block group(块组)管理,每个块组包含一定数量的block数。

客户端扩展

客户端读写路径得到增强,可以并行处理块组中的多个内部块。

datanode扩展

old:datanode向namenode定时反馈数据block的信息,namenode汇总后,和记录的信息进行对比,有缺失的进行调整补充。

new:datanode运行一个附加的ErasureCodingWorker(ECWorker)的任务,对失败的纠删编码块进行后台恢复,namenode检测到EC块后,任意选择datanode进行恢复。

纠删码策略

图44.png

Intel ISA-L

为了更好的支持EC,在硬件上作出的优化

图45.png

HDFS Erasure Coding部署

1、首先考虑cpu、带宽和机架数量这些集群硬件配置。

2、设置纠删码策略:纠删码策略参数dfs.namenode.ec.system.default.policy指定,默认是RS-6-3-1024K,其他策略是禁用的,可以通过hdfs ec [-enablePolicy  -policy <policyname>] 命令启动策略。

3、启用英特尔ISA-L(智能存储加速库)

图46.png

4、EC命令

hdfs ec命令

图4.png

图5.png

图6.png

cdh6.0.1中涉及到erasure coding的页面参数配置

图7.png





相关文章

Java-API-MapReduce的操作WordCount篇

Java-API-MapReduce的操作WordCount篇

首先就是pom文件<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/...

Hive压测之开源Hive基准测试工具(hive-testbench-hive14)

Hive压测之开源Hive基准测试工具(hive-testbench-hive14)

此文章禁止转载概述Hive基准测试工具工具,可用来造数测试Hive基本性能。TPC-DS:提供一个公平和诚实的业务和数据模型,99个案例TPC-H:面向商品零售业的决策支持系统测试基准,定义了8张表,...

fio磁盘io压测

fio磁盘io压测

fio tar包地址:https://brick.kernel.dk/snaps/yum 安装gcc、fio使用到的ibaio-devel 引擎yum install -y gcc yum inst...

单节点Kafka部署并开启Kerberos配置

安装Kerberosserver节点安装kerberos相关软件yum install -y krb5-server krb5-workstation krb5-libs修改配置文件krb5.conf...

ES运维(二)字段类型与内存管理

ES运维(二)字段类型与内存管理

一、ES常见字段类型1、 概述字段是数据存储的最小微粒,根据数据的性质不同将数据分成不同的字段类型,熟悉不同字段类型的特性,对索引的Mapping设计、查询调优都极其重要。2、 关键参数In...

CDP实操--Ranger开启ldap认证

CDP实操--Ranger开启ldap认证

集群中已经部署了ldap主主模式,并且使用haproxy进行负载均衡,keepalive提供了虚拟ip。页面配置:Ranger进行同步用户:验证:使用ldap用户登录页面:FAQ:1、admin超级管...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。