CDH实操--kudumaster迁移

九月2年前技术文章1128


1 概述

本次kudumaster迁移,中间不需要停kudu集群(会涉及滚动重启kudu角色);
注:若因为任务持续运行导致kudu停止超时可手动一台台停止-启动

2 master迁移

图1.png

将cdh2中的master节点迁移到cdh3中。(注意leader、follow,将follow节点进行迁移)

2.1 将每个master的记录下来

#操作前先停掉待迁移的master

sudo -u kudu kudu fs dump uuid --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/  2>/dev/null

图2.png

2.2 存活的一个master上执行

sudo -u kudu kudu local_replica cmeta print_replica_uuids --fs_wal_dir=/data/kmaster/wal/ --fs_data_dirs=/data/kmaster/data/ 00000000000000000000000000000000 2>/dev/null

2.3 根据前两步确定dead master的uuid


2.4 在新master机器上执行,uuid为dead master的标识

mkdir -p /data/kmaster/data/
mkdir -p /data/kmaster/wal/
chown kudu:kudu -R /data/kmaster
sudo -u kudu kudu fs format --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/ --uuid=817b421e254943179c6f02ff333db29f


图3.png

   

2.5 将一台存活master的元数据拷贝过来,用kudu用户执行

sudo -u kudu kudu local_replica copy_from_remote --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/  00000000000000000000000000000000 cdh1:7051

图4.png

2.6 新master和存活master上更新master list

每台都执行下面命令

sudo -u kudu kudu local_replica cmeta rewrite_raft_config --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/  00000000000000000000000000000000 275d0ef30feb4c59a09ebf38d52fafdb:cdh1:7051  817b421e254943179c6f02ff333db29f:cdh3:7051

图5.png

在之前的kudumastrer节点cdh1中执行报错,要先关掉该master服务,在去执行。

2.7 CM界面删除已停掉的待替换master,新master和之前存活的master一台台重启,对应的tserver显示过期配置,重启。

图8.png

2.8 检查master状态,需要在每个master管理页面看到的master节点列表是一致的

图9.png

2.9 执行健康检查脚本

  sudo -u kudu kudu cluster ksck cdh1,cdh3

图10.png

2.10 修改之前表的表属性,与当前的master节点一致。

在hive元数据mysql所在库中执行

UPDATE TABLE_PARAMS SET PARAM_VALUE =   'cdh1,cdh3' WHERE PARAM_KEY = 'kudu.master_addresses' AND PARAM_VALUE = 'cdh1,cdh2';

impala-shell中刷新元数据

方法1、执行INVALIDATE METADATA;(这个会消耗大量性能)

 INVALIDATE METADATA;

方法2、重启impala catalog


相关文章

CDP实操--HDFS角色迁移

CDP实操--HDFS角色迁移

    hdfs角色迁移功能在cdp页面中就可以实现该功能,迁移的时间与namenode元数据大小,以及block数量多少有关,注意迁移过程中集群需要关闭,要预留出操作时间窗口。1、页面选择迁移角色2...

Hive优化之SQL的优化(三)

Hive优化之SQL的优化(三)

     Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hi...

Ambari开启kerberos+安全方案

Ambari开启kerberos+安全方案

安装Kerberosserver节点安装kerberos相关软件yum install -y krb5-server krb5-workstation krb5-libsclient节点安装yum i...

Hdfs3.x新特性详解

Hdfs3.x新特性详解

HDFS Disk Balancer(磁盘均衡器)HDFS Disk Balancer与HDFS Balancer的区别?两者都是实现负载均衡功能HDFS Balancer是之前Hadoop2.x中本...

HBase使用snappy压缩

HBase使用snappy压缩

安装编译环境依赖yum install -y automake autoconf gcc-c++ cmake libedit libtool openssl-devel ncurses-devel安装...

Flinksql Kafka 接收流数据并打印到控制台

Flinksql Kafka 接收流数据并打印到控制台

本文目的使用Flink SQL创建一个流处理作业,将来自Kafka主题"dahua_picrecord"的数据写入到另一个表”print_table”控制台中。使用sql-client前 需要启动ya...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。