CDH实操--kudumaster迁移

九月3年前技术文章1468


1 概述

本次kudumaster迁移,中间不需要停kudu集群(会涉及滚动重启kudu角色);
注:若因为任务持续运行导致kudu停止超时可手动一台台停止-启动

2 master迁移

图1.png

将cdh2中的master节点迁移到cdh3中。(注意leader、follow,将follow节点进行迁移)

2.1 将每个master的记录下来

#操作前先停掉待迁移的master

sudo -u kudu kudu fs dump uuid --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/  2>/dev/null

图2.png

2.2 存活的一个master上执行

sudo -u kudu kudu local_replica cmeta print_replica_uuids --fs_wal_dir=/data/kmaster/wal/ --fs_data_dirs=/data/kmaster/data/ 00000000000000000000000000000000 2>/dev/null

2.3 根据前两步确定dead master的uuid


2.4 在新master机器上执行,uuid为dead master的标识

mkdir -p /data/kmaster/data/
mkdir -p /data/kmaster/wal/
chown kudu:kudu -R /data/kmaster
sudo -u kudu kudu fs format --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/ --uuid=817b421e254943179c6f02ff333db29f


图3.png

   

2.5 将一台存活master的元数据拷贝过来,用kudu用户执行

sudo -u kudu kudu local_replica copy_from_remote --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/  00000000000000000000000000000000 cdh1:7051

图4.png

2.6 新master和存活master上更新master list

每台都执行下面命令

sudo -u kudu kudu local_replica cmeta rewrite_raft_config --fs_wal_dir=/data/kmaster/wal/  --fs_data_dirs=/data/kmaster/data/  00000000000000000000000000000000 275d0ef30feb4c59a09ebf38d52fafdb:cdh1:7051  817b421e254943179c6f02ff333db29f:cdh3:7051

图5.png

在之前的kudumastrer节点cdh1中执行报错,要先关掉该master服务,在去执行。

2.7 CM界面删除已停掉的待替换master,新master和之前存活的master一台台重启,对应的tserver显示过期配置,重启。

图8.png

2.8 检查master状态,需要在每个master管理页面看到的master节点列表是一致的

图9.png

2.9 执行健康检查脚本

  sudo -u kudu kudu cluster ksck cdh1,cdh3

图10.png

2.10 修改之前表的表属性,与当前的master节点一致。

在hive元数据mysql所在库中执行

UPDATE TABLE_PARAMS SET PARAM_VALUE =   'cdh1,cdh3' WHERE PARAM_KEY = 'kudu.master_addresses' AND PARAM_VALUE = 'cdh1,cdh2';

impala-shell中刷新元数据

方法1、执行INVALIDATE METADATA;(这个会消耗大量性能)

 INVALIDATE METADATA;

方法2、重启impala catalog


相关文章

 大数据集群监控配置操作指导(二)node_exporter+mysql_exporter部署

大数据集群监控配置操作指导(二)node_exporter+mysql_exporter部署

2.node_exporter监控集群服务器(所有集群服务器)wget https://github.com/prometheus/node_exporter/releases/download/v1...

trino容器对接ldap(二)

trino容器对接ldap(二)

前提:本文前提是在trino容器已经对接上hive组件,并且ldap已经部署完成的基础上进行的对接。前提文章见:helm安装部署trino对接hive(一)安装部署1、设置证书因为不确定是在哪台机器中...

深度解读|云掣《云运维服务白皮书》全方位解析!

深度解读|云掣《云运维服务白皮书》全方位解析!

如今全球各行各业纷纷进行数字化变革,为适应数字经济环境下企业生存发展和市场变化的需要,企业选择进行主动的、系统性、整体性的数字化转型升级。大数据、云计算、人工智能、区块链等新一代信息通信技术为企业的数...

Hive优化之SQL的优化(三)

Hive优化之SQL的优化(三)

     Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hi...

HDFS Fsimage分析磁盘目录(文件级别)

HDFS Fsimage分析磁盘目录(文件级别)

首先获取fsimage信息hdfs dfsadmin -fetchImage  /opt/fsimage格式化fsimage 转换为可读文本hdfs oiv -i /opt/fsimage/fsima...

trino组件对接alluxio(三)

trino组件对接alluxio(三)

本文是基于已经部署了trino和alluxio的基础上,进行的trino与alluxio的组件对接,alluxio已经开启了高可用模式。安装部署1、增加alluxio配置在core-site.xml和...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。