Hbase部署

恩慈2年前技术文章903

安装前准备

1.1. 设置环境变量

所有hbase节点都要做

vi /etc/profile

 

export HBASE_HOME=/opt/hbase

export PATH=$PATH:$HBASE_HOME/bin

 

source /etc/profile

 

1.2. 创建用户及用户组

创建用户组

groupadd hbase

 

创建用户

useradd hbase -s /bin/bash -m -g hbase

usermod -aG hadoop hbase

安装hbase

1.3. 解压安装包

tar -zxf /opt/hbase-2.1.0.tar.gz -C /opt/

1.4. 分发软件包

分发软件包到别的hbase节点并创建软链接

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.222:/opt

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.10/opt

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.11/opt

scp -rp /opt/hbase-2.1.0 xxx.xxx.xxx.12/opt

 

ln -s /opt/hbase-2.1.0 /opt/hbase

1.5. 创建目录并修改权限

mkdir -p /log/hbase

chown -R hbase:hbase /opt/hbase /log/hbase

 

su - hdfs

hdfs dfs -mkdir /hbase

hdfs dfs -chown hbase:hbase /hbase

 

配置hbase

1.6. 配置hbase-env.sh文件

vim $HBASE_HOME/conf/hbase-env.sh

 

内容如下:

export HBASE_MANAGES_ZK=false

export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"

export JAVA_HOME=/opt/jdk1.8

export HBASE_LOG_DIR=/log/hbase

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

1.7. 配置hbase-site.xml文件

vim /opt/hbase/conf/hbase-site.xml

 

 

1.8. 配置regionservers文件

vim /opt/hbase/conf/regionservers

 

内容如下:

xxx.xxx.xxx.10

xxx.xxx.xxx.11

xxx.xxx.xxx.12

 

1.9. 配置backup-masters文件

vim /opt/hbase/conf/backup-masters

 

内容如下:

xxx.xxx.xxx.222

 

1.10. 复制hdfs-site.xml到$HBASE_HOME/conf/下

cp /opt/hadoop/etc/hadoop/hdfs-site.xml /opt/hbase/conf/

 

启动hbase

su - hbase

cd /opt/hbase/bin

 

启动

./start-hbase.sh

 


相关文章

ranger对接hbase 处理class not found

ranger对接hbase 处理class not found

hbase 2.1版本在配置ranger插件,重启hbase时,hmaster无法正常启动,日志显示meta region is in state OPENING此时查看regionserver 中日...

oracle adg容灾切换需要注意的参数

1.DG角色在线转换1.1 角色(主备)和DG有关的角色:primary database 主库,在线服务应用physical standby database 备库,物理备库,在线备份主库数据与主库...

Dockerfile

Dockerfile

一、什么是镜像?镜像可以看成是由多个镜像层叠加起来的一个文件系统(通过UnionFS与AUFS文件联合系统实现),镜像层也可以简单理解为一个基本的镜像,而每个镜像层之间通过指针的形式进行叠加。根据上图...

MySQL性能优化(七)优化or查询的另一个例子

MySQL性能优化(七)优化or查询的另一个例子

优化or查询的另外一个例子。一个例子SELECT msg.msg_id, msg.content , … FROM msg   ...

kafka节点数规划

按磁盘容量规划节点数Kafka的数据存放在本地磁盘,建议使用SAS盘,提供较高磁盘IO,以提高Kafka吞吐量。在本规划基于的硬件规格下,单节点平均吞吐量参考值为读300MB/s,写150MB/s。数...

CDH开启kerberos

CDH开启kerberos

1、依赖条件1、安装openldap-clients,krb5-workstations2、准备好kdcserver 或者AD2、操作步骤1、使用admin用户登录cm页面2、启用kerberos填写...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。