CDH实操--客户端安装

二龙2年前技术文章1585

概述

安装CDH客户端,主要是方便在CDH部署节点以外,通过客户端的方式连接CDH上的hdfs,hive和hbase服务

1、安装jdk(适配CDH即可,一般1.8)


2、获取安装包

image.png

3、部署安装包

把安装包解压即可:

mkdir /opt/CDH_client

mkdir /opt/CDH_client/etc

tar xvf CDH-6.0.1-1.cdh6.0.1.p0.590678-el7.parcel

mv CDH-6.0.1-1.cdh6.0.1.p0.590678 CDH

4、配置客户端

A、从hadoop获取hive配置文件

  a、 在Cloudera Manager管理界面中,选择Hive服务

  b、 在“操作”菜单中选择“下载客户端配置文件”

  c、 将配置文件上传Hadoop客户端/opt/CDH_client/etc目录,文件名为hive.zip

  d、unzip /opt/CDH_client/etc/hive.zip

B、从hadoop获取hbase配置文件(CDH03为hadoop集群一个节点)

  a、scp -r root@CDH03:/etc/hbase /etc/

C、配置客户端节点hosts文件

  a、将CDH集群的hosts映射拷贝到客户端节点即可

D、修改客户端环境变量,将以下命令追加到/etc/profile里,确保每个用户都有同样一套环境变量

export JAVA_HOME="/usr/java/jdk1.8.0_181-cloudera"

export HADOOP_HOME="/opt/app/CDH_client/CDH"

export HIVE_HOME="/opt/app/CDH_client/CDH/lib/hive"

export HBASE_HOME="/opt/app/CDH_client/CDH/lib/hbase"

export HCAT_HOME="/opt/app/CDH_client/CDH"

export HADOOP_CONF_DIR="/opt/app/CDH_client/etc/hive-conf"

export HIVE_CONF="/opt/app/CDH_client/etc/hive-conf/"

export YARN_CONF_DIR="/opt/app/CDH_client/etc/hive-conf"

export CDH_MR2_HOME=$HADOOP_HOME/lib/hadoop-mapreduce

export PATH=${JAVA_HOME}/bin:${HADOOP_CONF_DIR}:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${HBASE_HOME}/bin:${HIVE_HOME}/bin:${HCAT_HOME}/bin:${PATH}

注释:为了减少侵入性,也可以将此环境变量添加到一个普通文件,每次登陆时手动source一下就行

5、连通性验证

a.验证HDFS

hadoop fs –ls / #如果可以列出目录,证明HDFS客户端配置成功;

b.验证HIVE

beeline -u "jdbc:hive2://CDH01:10000/default;principal=kylin/slave4@MCITP.COM" #如果是基于kerberos登录,使用这种方式;

beeline -u "jdbc:hive2://CDH01:10000/default" #如果是基本认证登录,则采用这种方式

show databases;#如果可以进入beeline命令行模式,而且可以显示默认数据库defaul,证明beeline客户端配置成功。

c.验证HBASE

hbase shell

list #如果可以进入hbase shell,并且可以列出hbase中的表名,证明hbase客户端配置成功

相关文章

Debezium抽取SQL Server同步kafka

Debezium抽取SQL Server同步kafka

ebezium SQL Server连接器捕获SQL Server数据库模式中发生的行级更改。官方2.0文档:https://debezium.io/documentation/reference/2...

hive执行count和spark执行count结果不一致

hive执行count和spark执行count结果不一致

【组件版本】hive on mr、spark【问题现象】hive 执行count语句,结果条数为0,spark执行count语句能正常显示count数【详细描述】hive 执行count语句:显示co...

Debezium部署以及同步之DB2数据到Kafka的同步

Debezium部署以及同步之DB2数据到Kafka的同步

因为Debezium依赖于kafka之上,所以我们先部署kafka和zookeeper(忽略)。1 环境介绍Debezium1.9版本 Db2 11.5版本  附官网:http...

dolphinscheduler单机部署

dolphinscheduler单机部署

官网链接:https://dolphinscheduler.apache.org本次测试版本为:https://dolphinscheduler.apache.org/zh-cn/download/3...

HDP-Yarn开启CPU调度和隔离

HDP-Yarn开启CPU调度和隔离

进入到ambari主界面 点击yarn 点击config CPU Scheduling and Isolation 设置为enable修改高级配置点击ADVANCED搜索需要修改的配yarn.node...

ES运维(三)架构与规划(阿里云)

ES运维(三)架构与规划(阿里云)

1、 阿里云Elasticsearch架构图阿⾥云Elasticsearch和Kibana容器化运⾏在ECS中,监控agent(独⽴进程)负责收集监控指标,通过SLS发送给云监控完成监控报警。实例之间...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。