开源大数据集群部署(二十)Trino部署

櫰木10个月前技术文章813

2.9.1 解压trino的包到opt目录

cd /root/bigdata
tar -xzvf trino-server-389.tar.gz -C /opt/
ln -s /opt/trino-server-389 /opt/trino


2.9.2 创建trino用户,并配置专属jdk11

useradd trino
su – trino
chown -R trino:hadoop /opt/trino-server-389


每台节点生成keytab文件

bash /data/kerberos/getkeytabs.sh /etc/security/keytab/trino.keytab trino


添加环境变量

su - trino
 
vim ~/.bashrc
export JAVA_HOME=/opt/zulu11.60.19-ca-jdk11.0.17-linux_x64
export JRE_HOME=$JAVA_HOME/jre
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/rt.jar
 
export TRINO_HOME=/opt/trino
export PATH=$TRINO_HOME/bin:$PATH
source ~/.bashrc
验证java版本


图片15.png 

2.9.3 定义配置文件

cd /opt/trino/etc

jvm配置

vim jvm.config
-server
-Xmx4G
-XX:InitialRAMPercentage=80
-XX:MaxRAMPercentage=80
-XX:G1HeapRegionSize=32M
-XX:+ExplicitGCInvokesConcurrent
-XX:+ExitOnOutOfMemoryError
-XX:+HeapDumpOnOutOfMemoryError
-XX:-OmitStackTraceInFastThrow
-XX:ReservedCodeCacheSize=512M
-XX:PerMethodRecompilationCutoff=10000
-XX:PerBytecodeRecompilationCutoff=10000
-Djdk.attach.allowAttachSelf=true
-Djdk.nio.maxCachedBufferSize=2000000
-XX:+UnlockDiagnosticVMOptions
-XX:+UseAESCTRIntrinsics
-Dsun.security.krb5.debug=true
-Dlog.enable-console=true
-Dlogback.configurationFile=/opt/trino/etc/trino-ranger-plugin-logback.xml
-javaagent:/opt/prometheus/jmx_prometheus_javaagent-0.12.0.jar=9550:/opt/prometheus/trino-prometheus.yml


Coordinator config配置

cat config.properties
# 该节点是否作为coordinator
coordinator=true
# coordinator是否同时作为worker节点
node-scheduler.include-coordinator=false
# http连接端口
http-server.http.port=18080
# 所有节点查询可以使用的最大内存和
query.max-memory=3GB
# 单个节点查询可以使用的最大用户内存
query.max-memory-per-node=1024MB
# 服务发现的地址
discovery.uri=http://hd1.dtstack.com:18080


work节点config配置

# 该节点是否作为coordinator
coordinator=false
# http连接端口
http-server.http.port=18080
# 所有节点查询可以使用的最大内存和
query.max-memory=4GB
# 单个节点查询可以使用的最大用户内存
query.max-memory-per-node=1024MB
# 服务发现的地址
discovery.uri=http://hd1.dtstack.com:18080


节点配置node.properties

cat node.properties
# 集群所有节点环境名称必须一样
node.environment=trino_cluster
# UUID, 36个16进制数字, 每个节点的都不一样, 默认随机生成, 设置固定值在集群升级时可以保持和原来的一致
node.id=9df13f5a-eae8-4e55-9ad6-9dc5f86eb74c
# 日志文件和数据文件储存目录
node.data-dir=/data/trino-server/var


 

Ø uuid生成方式可以通过uuidgen命令进行生成。

Ø 创建数据目录 mkdir -p /data/trino-server/var

2.9.3 启动应用

/opt/trino/bin/launcher start


查看端口是否启动成功

ss -tunlp | grep 18080


图片16.png 

查看web页面

图片17.png 

 

 

 

 

2.9.4 对接hive

每个节点都需要配置

mkdir -p /opt/trino/etc/catalog
cat hive.properties
connector.name=hive
hive.metastore.uri=thrift://hd1.dtstack.com:9083
hive.config.resources=/opt/hadoop/etc/hadoop/core-site.xml,/opt/hadoop/etc/hadoop/hdfs-site.xml
hive.metastore.authentication.type=kerberos
hive.metastore.thrift.impersonation.enabled=false
hive.metastore.service.principal=hive/hd1.dtstack.com@DTSTACK.COM
hive.metastore.client.principal=hive/hd1.dtstack.com@DTSTACK.COM
hive.metastore.client.keytab=/etc/security/keytab/hive.keytab
hive.hdfs.authentication.type=KERBEROS
hive.hdfs.impersonation.enabled=false
hive.hdfs.trino.principal=trino/_HOST@DTSTACK.COM
hive.hdfs.trino.keytab=/etc/security/keytab/trino.keytab

2.9.5 运行测试

trino-cli需要手动去官网下载。

trino-cli --server hd1.dtstack.com:18080 --catalog=hive --schema=test


相关文章

oracle 回退db补丁31718723报错ins_emagent.mk:113: warning: overriding recipe for target `nmosudo'

报错内容如下:ins_emagent.mk:113: warning: overriding recipe for target `nmosudo'原因:该补丁的readme有说明该报错如下图参考mo...

Hive合并小文件:hive归档(archive)

Hive合并小文件:hive归档(archive)

一、概述       在HDFS中数据和元数据分别由DataNode和NameNode负责,这些元数据每个对象一般占用大约150个字节。大量的小文件相对于大文件会占用大量的NameNode内存。对Na...

MySQL优化器特性(七)成本估算常数

成本估算常数表示执行一些MySQL基础操作时的成本,如读取一个页面,创建一个临时表,比较一条记录,解析一行记录等操作。mysql.engine_cost和mysql.server_cost表分别记录存...

大数据集群部署规划(一)关于节点的定义

大数据集群部署规划(一)关于节点的定义

节点定义:CDH集群节点定义CDH 官方文档有一份更详细的节点和角色配置,官网将主机分成以下四种类型: 1) Master hosts run Hadoop master processes such...

MySQL 复制-有数据环境搭建异步复制

MySQL 复制-有数据环境搭建异步复制

前言本 SOP 介绍的是已有数据的场景下如果部署主从复制,因为是生产环境而且有数据,我们就需要先将主库的数据同步到从库再建立复制关系,还需要根据数据量来选择更适合的备份工具。一、步骤归纳单实例安装:新...

MySQL运维实战(4.3) SQL_MODE之ONLY_FULL_GROUP_BY

设置ONLY_FULL_GROUP_BY后,对有group by子句SQL,select的字段要么是group by中的字段,要么对字段进行聚合运算,否则sql执行报错。不设置ONLY_FULL_GR...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。