Hbase部署

恩慈1年前技术文章485

安装前准备

1.1. 设置环境变量

所有hbase节点都要做

vi /etc/profile

 

export HBASE_HOME=/opt/hbase

export PATH=$PATH:$HBASE_HOME/bin

 

source /etc/profile

 

1.2. 创建用户及用户组

创建用户组

groupadd hbase

 

创建用户

useradd hbase -s /bin/bash -m -g hbase

usermod -aG hadoop hbase

安装hbase

1.3. 解压安装包

tar -zxf /opt/hbase-2.1.0.tar.gz -C /opt/

1.4. 分发软件包

分发软件包到别的hbase节点并创建软链接

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.222:/opt

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.10/opt

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.11/opt

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.12/opt

 

ln -s /opt/hbase-2.1.0 /opt/hbase

1.5. 创建目录并修改权限

mkdir -p /log/hbase

chown -R hbase:hbase /opt/hbase /log/hbase

 

su - hdfs

hdfs dfs -mkdir /hbase

hdfs dfs -chown hbase:hbase /hbase

 

配置hbase

1.6. 配置hbase-env.sh文件

vim $HBASE_HOME/conf/hbase-env.sh

 

内容如下:

export HBASE_MANAGES_ZK=false

export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"

export JAVA_HOME=/opt/jdk1.8

export HBASE_LOG_DIR=/log/hbase

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

1.7. 配置hbase-site.xml文件

vim /opt/hbase/conf/hbase-site.xml

 

 

1.8. 配置regionservers文件

vim /opt/hbase/conf/regionservers

 

内容如下:

xxx.xxx.xxx.10

xxx.xxx.xxx.11

xxx.xxx.xxx.12

 

1.9. 配置backup-masters文件

vim /opt/hbase/conf/backup-masters

 

内容如下:

xxx.xxx.xxx.222

 

1.10. 复制hdfs-site.xml到$HBASE_HOME/conf/下

cp /opt/hadoop/etc/hadoop/hdfs-site.xml /opt/hbase/conf/

 

启动hbase

su - hbase

cd /opt/hbase/bin

 

启动

./start-hbase.sh

 


相关文章

使用Velero备份与恢复K8s集群及应用

使用Velero备份与恢复K8s集群及应用

环境3台虚拟机组成一主两从的测试集群,使用NFS作为动态存储主机IP系统k8s-master192.168.1.10centos7.9k8s-node1192.168.1.11centos7.9k8s...

Golang new and make

Go  语言中 new 方法和 make 方法,都是用于分配相应类型内存空间。1、makemake 内置函数分配并初始化(仅)slice、map 或 chan 类型的对象,返回值是所创建的类型本身。与...

clickhouse集群部署(一)

clickhouse集群部署(一)

1、rpm包下载安装部署完整包地址:https://packages.clickhouse.com/rpm/stable/📎clickhouse-common-static-dbg-22.8.4.7....

为什么根据时间戳获取topic的offset为空呢

为什么根据时间戳获取topic的offset为空呢

一、前言最近有一个需求,要查询某一时间戳对应的offset值,于是就想到了使用 ./bin/kafka-run-class.sh kafka.tools.GetOffsetShell --time &...

EMR 配置 Hive on Spark

EMR 配置 Hive on Spark

Hive3 on spark 集成前置条件hadoop yarn环境正常oracle jdk 1.8版本1、spark2 下载准备https://archive.apache.org/dist/spa...

scylladb通过扩缩容节点迁移数据

环境: Scyllsdb版本:4.2一、上线新节点1、确认集群状态和检查配置· 首先确认集群各节点状态是Up Normal (UN),[root@172-16-121-153 scylla]# nod...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。