开源大数据集群部署(二十二)Flink on yarn部署

櫰木10个月前技术文章221

flink on yarn部署(每个节点)

cd  /root/bigdata/
tar -xzvf  flink-1.14.6-bin-scala_2.12.tgz -C /opt/
 ln -s /opt/flink-1.14.6 /opt/flink


修改环境变量添加内容

vi /etc/profile.d/bigdata.sh
export HADOOP_CLASSPATH=`hadoop classpath`


 

引用变量

source /etc/profile

 

生成keytab

bash /data/kerberos/getkeytabs.sh /etc/security/keytab/flink.keytab flink


3.1.2 配置修改

c

cd /opt/flink
cat conf/flink-conf.yaml
blob.server.port: 6124
jobmanager.memory.process.size: 1024m
jobmanager.rpc.address: localhost
jobmanager.rpc.port: 6123
query.server.port: 6125
rest.port: 8081
taskmanager.memory.process.size: 1024m
taskmanager.numberOfTaskSlots: 1
taskmanager.rpc.port: 6122
state.backend: rocksdb
state.checkpoints.dir: hdfs:///flink/flink/flink-checkpoints
state.savepoints.dir: hdfs:///flink/flink/fink-savepoints
jobmanager.archive.fs.dir: hdfs:///flink/flink/completed-jobs
historyserver.archive.fs.dir: hdfs:///flink/flink/completed-jobs
historyserver.archive.fs.refresh-interval: 1000
security.kerberos.login.keytab: /etc/security/keytab/flink.keytab
security.kerberos.login.principal: flink/hd1.dtstack.com@DTSTACK.COM
 
high-availability: zookeeper
high-availability.zookeeper.quorum:hd1:2181,hd2:2181,hd3:2181
high-availability.zookeeper.path.root: /flink
high-availability.cluster-id: /flink-ha
high-availability.storageDir: hdfs:///flink/flink/recovery
zookeeper.sasl.login-context-name: Client
zookeeper.sasl.service-name: zookeeper
yarn.application-attempts: 10
classloader.check-leaked-classloader: false


 

创建目录

hdfs dfs -mkdir -p /flink/flink/completed-jobs
hdfs dfs -mkdir -p /flink/flink/flink-checkpoints
hdfs dfs -mkdir -p hdfs:///flink/flink/fink-savepoints
hdfs dfs -mkdir /user/flink
hdfs dfs -chown -R  flink  /flink/flink/recovery/flink-ha
hdfs dfs -chown flink /user/flink


3.1.3 分发安装包

scp /opt/flink-1.14.6 root@hd2:/opt/
scp /opt/flink-1.14.6 root@hd3:/opt/


3.1.4 提交测试任务

Per_job 任务

./bin/flink run -m yarn-cluster -yjm 1024 -ytm 1024 examples/batch/WordCount.jar

图片5.png

 

提交session 模式

./bin/yarn-session.sh -n 3 -s 3 -nm flink-sessiontest -d -q

 

 图片6.png

./bin/flink run -m hd2.dtstack.com:8081 -p 2  examples/batch/WordCount.jar


访问8081的页面

图片7.png


相关文章

python脚本--检查域名证书到期时间

需要的依赖:pip install python-dateutil pip install pytzpython脚本内容:#!/usr/bin/env python3      import s...

PG的表膨胀

1 什么是表膨胀众所周知,PostgreSQL的多版本并发是通过保留变更前的记录来实现的。当数据记录被DML修改,旧版本记录仍保留不变,仅仅需要修改相关记录的xmin、xmax属性,并新增写入变更后的...

开源大数据集群部署(十三)Ranger 集成Trino

开源大数据集群部署(十三)Ranger 集成Trino

1、安装ranger trino插件在trino的coordinator节点部署Ø 解压ranger-2.3.0-trino-plugin.tar.gz[root@hd2.dtstack.com ]#...

RMAN-08137处理

现象:删除归档的时候报错:RMAN-08137: WARNING: archived log not deleted, needed for standby or upstream capture p...

Kafka Rebalance详解

1.rebalance概览rebalance中文含义为再平衡。它本质上是一组协议,它规定了一个 consumer group 是如何达成一致来分配订阅 topic 的所有分区的。比方说Consumer...

CDH实操--配置Kerberos服务高可用(一)

CDH实操--配置Kerberos服务高可用(一)

前置条件1.主Kerberos已安装并与CDH集成2.备节点安装Kerberos服务yum -y install krb5-server krb5-libs krb5-auth-dialog krb5...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。