hive部署

恩慈2年前技术文章814

安装前准备

修改环境变量

vi /etc/profile

 

添加内容如下:(hive节点都要执行)

export HIVE_HOME=/opt/hive

export PATH=$PATH:$HIVE_HOME/bin

 

source  /etc/profile

创建用户和用户组

groupadd hive

useradd -g hive hive

usermod -aG hadoop hive

安装hive

上传安装包并解压

tar -zxf apache-hive-3.1.3-bin.tar.gz -C /opt/

ln -s apache-hive-3.1.3-bin /opt/hive

 

上传驱动包

mysql-connector-java.jar

复制文件

scp -rp /opt/apache-hive-3.1.3-bin xxx.xxx.xxx.220:/opt/

ln -s /opt/apache-hive-3.1.3-bin /opt/hive

 

cp /usr/share/java/mysql-connector-java.jar /opt/hive/lib/

cp /opt/hadoop/share/hadoop/common/lib/guava-27.0-jre.jar /opt/hive/lib/

(复制完成后删除之前的guava)

 

cp alluxio-2.9.3-client.jar /opt/hive/lib/

 

创建文件并修改权限

hdfs dfs -mkdir -p  /user/hive/warehouse

hdfs dfs -mkdir /tmp

hdfs dfs -chmod g+w /tmp  /user/hive/warehouse

hdfs dfs -chmod 777  /user/hive/warehouse

 

mkdir /log/hive

mkdir /log/hadoop

chown -R hive:hadoop /opt/hive/

chown -R hive:hadoop /log/hive /log/hadoop

 

配置hive

修改hive-env.sh

vi /opt/hive/conf/hive-env.sh

 

添加如下内容:

export HADOOP_HOME=/opt/hadoop

export HIVE_LOG_DIR=/log/hive

 

export HIVE_HOME=/opt/hive

 

export HIVE_CONF_DIR=/opt/hive/conf

 

if [ "$SERVICE" = "hiveserver2" ] ; then

 

        HADOOP_CLIENT_OPTS="$HADOOP_CLIENT_OPTS -Dhive.log.dir=/log/hive -Dhive.log.file=hiveserver2.log -Dcom.sun.management.jmxremote.authenticate=false    -Dcom.sun.management.jmxremote.ssl=false    -Dcom.sun.management.jmxremote.local.only=false  -Dcom.sun.management.jmxremote.port=9611   -javaagent:/opt/prometheus/jmx_prometheus_javaagent-0.3.1.jar=9511:/opt/prometheus/hiveserver2.yml"

 

fi

 

if [ "$SERVICE" = "metastore" ] ; then

 

        HADOOP_CLIENT_OPTS="$HADOOP_CLIENT_OPTS -Dhive.log.dir=/log/hive -Dhive.log.file=metastore.log -Dcom.sun.management.jmxremote.authenticate=false    -Dcom.sun.management.jmxremote.ssl=false    -Dcom.sun.management.jmxremote.local.only=false  -Dcom.sun.management.jmxremote.port=9606   -javaagent:/opt/prometheus/jmx_prometheus_javaagent-0.3.1.jar=9506:/opt/prometheus/hive_metastore.yml"

 

fi

 

export HIVE_AUX_JARS_PATH=/opt/hive/lib/alluxio-2.9.3-client.jar:${HIVE_AUX_JARS_PATH}

启动服务

初始化

创建hive元数据库,连接mysql数据库

create database metastore;

create user 'hive'@'%' identified by 'xxxxxxxx';

grant all privileges on metastore.* to 'hive'@'%' ;

 

cd /opt/hive/bin

schematool -dbType mysql -initSchema

启动服务

su - hive

$HIVE_HOME/bin/hive --service hiveserver2 > /log/hive/hiveserver2.log 2>&1 &

$HIVE_HOME/bin/hive --service metastore> /log/hive/metastore.log 2>&1 &

 


相关文章

Debezium抽取SQL Server同步kafka

Debezium抽取SQL Server同步kafka

ebezium SQL Server连接器捕获SQL Server数据库模式中发生的行级更改。官方2.0文档:https://debezium.io/documentation/reference/2...

Hive优化之监控(四)

Hive优化之监控(四)

    Hive是大数据领域常用的组件之一,主要是大数据离线数仓的运算,关于Hive的性能调优在日常工作和面试中是经常涉及的一个点,因此掌握一些Hive调优是必...

Hadoop生产调优

一、NameNode内存生产配置1.NameNode内存计算每个文件块大概占用150byte,一台服务器128G内存为例,能存储多少文件块呢?128 * 1024 * 1024 * 1024  / 1...

Datanode节点坏卷处理

Datanode节点坏卷处理

1、告知客户故障信息,确定是否有备用磁盘更换2、停止故障节点的所有角色服务3、卸载故障磁盘umount -vl /data64、等待硬件厂商更换好磁盘5、对新磁盘分区和格式化#1.磁盘分区 mkfs...

MySQL Group Replication(二)监控篇

MySQL Group Replication(二)监控篇

说明组复制搭建成功后,为保证其正常运行,用户需要对组复制进行监控。MySQL 的 performance_schema 库中提供一些表,用于监控组复制的复制过程。[performance_schema...

 MySQL运维实战之Clone插件(10.1)使用Clone插件

MySQL运维实战之Clone插件(10.1)使用Clone插件

clone插件介绍mysql 8.0.17版本引入了clone插件。使用clone插件可以对本地l或远程的mysql实例进行clone操作。clone插件会拷贝innodb存储引擎表,clone得到的...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。