CDH实操--集群卸载

耀灵2年前技术文章1096

1、停止正在运行的服务

a、控制台停止集群服务

3.png

b、控制台停止Cloudera Management Service


4.png

c、命令行停止cm服务

systemctl stop cloudera-scm-agent  #所有节点执行
systemctl stop cloudera-scm-server  #cdh01节点执行

2、主线并移除Parcles

rm  -rf  /opt/cloudera

3、卸载Cloudera Manager Server

/usr/share/cmf/uninstall-cloudera-manager.sh

注:若集群中未安装uninstall-cloudera-manager.sh,则使用下面命令进行卸载

yum remove cloudera-manager-server y

4、在所有Agent主机上,卸载CDH及Clouder Manager Agent

yum remove cloudera-manager-* y

运行下面清楚命令:

yum clean all

5、在所有的Agent主机上行,删除所有的Cloudera Manager数据

若考虑以后访问,需要将这些数据备份,若使用了内嵌的数据库PostgreSQL数据库,数据存储在/var/lib/cloudear-scm-server-db



rm -rf /dfs /usr/share/cmf   /var/lib/cloudera*   /var/cache/yum/x86_64/var/run/cloudera*  /var/log/cloudera-scm-*
卸载mouont目录(一次卸载不了可以多试两次)
umount /run/cloudera-scm-agent/process
rm -rf /run/cloudera-scm-agent

6、在所有的Agent主机上,杀死运行的Cloudera Manager和Hadoop进程

一般在第一步hadoop已经停了,就不需要此步骤



ps -ef | grep 'hadoop' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'mapreduce' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'yarn' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'hbase' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'hue' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'hive' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'imapla' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'flume ' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'kudu ' | grep -v 'grep'| awk '{print \$2}'
ps -ef | grep 'kafka' | grep -v 'grep'| awk '{print \$2}'

7、删除Cloudera Manager锁

rm -rf /tmp/.scm_prepare_node.lock #若没有此对应锁文件则不需此步骤
最好把/tmp目录下的所有有关cloudera manager的临时文件删除
rm -rf /tmp/cmf* /tmp/scm*



8、如果是自建的数据库,则进行删除



DROP DATABASE amon;
DROP DATABASE hue;
DROP DATABASE nav;
DROP DATABASE navms;
DROP DATABASE oozie;
DROP DATABASE rman;
DROP DATABASE scm;
DROP DATABASE sentry;
DROP DATABASE metastore;

9、可进行内存回收(根据需要)


sync
sysctl -w vm.drop_caches=3



相关文章

ubuntu20.04服务器安全策略设定

ubuntu20.04服务器安全策略设定

密码策略1、经核查,服务器用户身份标识唯一,口令存储在服务器中采用SHA512算法,服务器配置口令复杂度,口令要求8位以上,字母、数字、特殊字符组成,口令180天定期更换。# SHA512算法查看ca...

spark配置任务日志(Client模式& Cluster模式)

在Spark中,日志级别可以通过log4j.properties或log4j.xml文件来配置。对于spark-submit命令启动的应用程序,可以通过以下两种方式来修改日志级别:对于Client模式...

使用Sqoop将数据从MySQL导入HBase (二)

使用Sqoop将数据从MySQL导入HBase (二)

创建hbase表create_namespace 'data';create 'data:data', {NAME => 'cf1'}, {NAME => 'cf2'}, {NAME =&...

大数据组件Apache NiFi

大数据组件Apache NiFi

概述NiFi是美国国家安全局开发并使用了8年的可视化数据集成产品,2014年NAS将其贡献给了Apache社区,2015年成为Apache顶级项目。是一个基于Web图形界面,通过拖拽、连接、配置完成基...

开启kerberos配置HiveServer2负载均衡

开启kerberos配置HiveServer2负载均衡

1.HAProxy配置HiveServer2负载均衡1.编辑/etc/haproxy/haproxy.cfg文件,在文件末尾增加如下配置listen stats     bind 0.0.0.0:1...

trino组件对接hive(一)

前提:本文是在部署了trino组件和hive组件后,进行的trino与hive组件的对接。1、增加hive connector配置在trino安装部署下的etc/catalog下,创建hive.pro...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。