Trino部署

恩慈2年前技术文章1335

安装前准备

1.1. 创建用户和用户组

groupadd trino

useradd -g hadoop trino

1.2. 配置环境变量

1.2.1. 配置系统环境变量

/etc/profile

export TRINO_HOME=/opt/trino

export PATH=$PATH:$TRINO_HOME/bin

source /etc/profile

1.2.2. 配置trino用户环境变量

su - trino

 

vim ~/.bash_profile

export JAVA_HOME=/opt/jdk-17.0.9+9

export JRE_HOME=$JAVA_HOME/jre

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/rt.jar

 

export TRINO_HOME=/opt/trino

export PATH=$TRINO_HOME/bin:$PATH

source ~/.bashrc

安装trino

1.1. 解压trino安装包

tar -xzvf trino-server-416.tar.gz -C /opt

ln -s /opt/trino-server-416 /opt/trino

1.2. 复制文件

cp /opt/alluxio/conf/alluxio-site.properties /opt/trino/etc/

 

将文件分发到其他节点

scp -rp /opt/alluxio cv-dsyhdfs01:/opt

配置trino

1.1. 创建目录

su - trino

mkdir -p /opt/trino/etc/catalog

cd /opt/trino/

mkdir -p /data/trino/var

 

 

1.2. 配置jvm.config

-server

-Xmx1G

-XX:-UseBiasedLocking

-XX:+UseG1GC

-XX:G1HeapRegionSize=32M

-XX:+ExplicitGCInvokesConcurrent

-XX:+ExitOnOutOfMemoryError

-XX:+HeapDumpOnOutOfMemoryError

-XX:-OmitStackTraceInFastThrow

-XX:ReservedCodeCacheSize=64M

-XX:PerMethodRecompilationCutoff=10000

-XX:PerBytecodeRecompilationCutoff=10000

-Djdk.attach.allowAttachSelf=true

#-Xbootclasspath/a:/opt/trino/etc/alluxio-site.properties

-Djdk.nio.maxCachedBufferSize=2000000

1.3. 配置config.properties

coordinator节点配置

vim /opt/trino/etc/config.properties

内容如下:

 

# 该节点是否作为coordinator

coordinator=true

# coordinator是否同时作为worker节点

node-scheduler.include-coordinator=true

# http连接端口

http-server.http.port=8550

# 所有节点查询可以使用的最大内存和

query.max-memory=3GB

# 单个节点查询可以使用的最大用户内存

query.max-memory-per-node=512MB

# 服务发现的地址

discovery.uri=http://xxx.xxx.xxx.xxx:8550

 

1.4. 配置node.properties

vim /opt/trino/etc/node.properties

# 集群所有节点环境名称必须一样

node.environment=trino_cluster

# UUID, 36个16进制数字, 每个节点的都不一样, 默认随机生成, 设置固定值在集群升级时可以保持和原来的一致

node.id=a49c04c9-6642-11ec-acff-30d042079a38

# 日志文件和数据文件储存目录

node.data-dir=/data/trino/var

1.5. 修改权限

chmod trino:trino /opt/trino/

1.6. 安装jdk

解压jdk

jdk-17.0.9+9

 

启动trino

su - trino

/opt/trino/bin/launcher start

ss -tunlp | grep 8550

 


相关文章

MySQL优化器特性(四)表关联之BNL(Block Nested Loop)和Hash Join

MySQL优化器特性(四)表关联之BNL(Block Nested Loop)和Hash Join

什么是BNLMySQL表关联时,如果关联条件上没有合适的索引,则join时,对于驱动表的每一条记录,都需要全表扫描被驱动表。如果驱动表有多条数据,则需要多次全表扫描被驱动表,查询性能很差。对于这种情况...

NAS文件被删除问题排查

NAS文件被删除问题排查

一、问题现象客户业务方反馈服务器上挂载的nas文件被删除,业务中许多文件丢失,业务受到严重影响。需要我方协助排查。二、问题背景该nas挂载到两台业务服务器上,后端应用为java应用,存储内容为jpg、...

kubernetes openelb

1、背景在云服务环境中的 Kubernetes 集群里,通常可以用云服务提供商提供的负载均衡服务来暴露 Service,但是在本地没办法这样操作。而 OpenELB 可以让用户在裸金属服务器、边缘以及...

WAF 透明接入模式

WAF 透明接入模式

透明接入模式只需将需要防护的网站信息添加到WAF,无需修改域名的DNS解析设置,即可实现WAF防护。如果您的源站服务器为ECS服务器或者部署在阿里云公网SLB上,那么除了使用CNAME接入模式,还可以...

Pod 的 init Containers

Pod 的 init Containers

Pod 我们可以分为两类,一种属于自主式 Pod ,还有一种属于控制器管理的 Pod 。一、Pod 的 initContainers基本概念:Pod能够具有多个容器,应用运行在容器里面,但是它也可能有...

Flume使用案例之Flume与Flume之间数据传递,多Flume汇总数据到单Flume

目标:flume11监控文件hive.log,flume-22监控某一个端口的数据流,flume11与flume-22将数据发送给flume-33,flume33将最终数据写入到HDFS。分步实现:1...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。