开源大数据集群部署(二十二)Flink on yarn部署

櫰木1年前技术文章447

flink on yarn部署(每个节点)

cd  /root/bigdata/
tar -xzvf  flink-1.14.6-bin-scala_2.12.tgz -C /opt/
 ln -s /opt/flink-1.14.6 /opt/flink


修改环境变量添加内容

vi /etc/profile.d/bigdata.sh
export HADOOP_CLASSPATH=`hadoop classpath`


 

引用变量

source /etc/profile

 

生成keytab

bash /data/kerberos/getkeytabs.sh /etc/security/keytab/flink.keytab flink


3.1.2 配置修改

c

cd /opt/flink
cat conf/flink-conf.yaml
blob.server.port: 6124
jobmanager.memory.process.size: 1024m
jobmanager.rpc.address: localhost
jobmanager.rpc.port: 6123
query.server.port: 6125
rest.port: 8081
taskmanager.memory.process.size: 1024m
taskmanager.numberOfTaskSlots: 1
taskmanager.rpc.port: 6122
state.backend: rocksdb
state.checkpoints.dir: hdfs:///flink/flink/flink-checkpoints
state.savepoints.dir: hdfs:///flink/flink/fink-savepoints
jobmanager.archive.fs.dir: hdfs:///flink/flink/completed-jobs
historyserver.archive.fs.dir: hdfs:///flink/flink/completed-jobs
historyserver.archive.fs.refresh-interval: 1000
security.kerberos.login.keytab: /etc/security/keytab/flink.keytab
security.kerberos.login.principal: flink/hd1.dtstack.com@DTSTACK.COM
 
high-availability: zookeeper
high-availability.zookeeper.quorum:hd1:2181,hd2:2181,hd3:2181
high-availability.zookeeper.path.root: /flink
high-availability.cluster-id: /flink-ha
high-availability.storageDir: hdfs:///flink/flink/recovery
zookeeper.sasl.login-context-name: Client
zookeeper.sasl.service-name: zookeeper
yarn.application-attempts: 10
classloader.check-leaked-classloader: false


 

创建目录

hdfs dfs -mkdir -p /flink/flink/completed-jobs
hdfs dfs -mkdir -p /flink/flink/flink-checkpoints
hdfs dfs -mkdir -p hdfs:///flink/flink/fink-savepoints
hdfs dfs -mkdir /user/flink
hdfs dfs -chown -R  flink  /flink/flink/recovery/flink-ha
hdfs dfs -chown flink /user/flink


3.1.3 分发安装包

scp /opt/flink-1.14.6 root@hd2:/opt/
scp /opt/flink-1.14.6 root@hd3:/opt/


3.1.4 提交测试任务

Per_job 任务

./bin/flink run -m yarn-cluster -yjm 1024 -ytm 1024 examples/batch/WordCount.jar

图片5.png

 

提交session 模式

./bin/yarn-session.sh -n 3 -s 3 -nm flink-sessiontest -d -q

 

 图片6.png

./bin/flink run -m hd2.dtstack.com:8081 -p 2  examples/batch/WordCount.jar


访问8081的页面

图片7.png


相关文章

Flume使用案例之实时读取本地文件到HDFS

Flume实时读取本地文件到HDFS1.  创建flume-hdfs.conf文件# 1 agenta2.sources = r2a2.sinks = k2a2.channels = c2 # 2 s...

MySQL 异常:max key length is 767 bytes

MySQL 异常:max key length is 767 bytes

前言最近迁移几张表,又遇到 767 异常,迁移前只检查了 sql_mode 忽略对比了这个参数,导致几张表创建失败,其实解决方法也很简单,开启 innodb_large_prefix 参数重新导入即可...

MySQL运维实战(4.2) 关于SQL_MODE

早期mysql对一些不符合SQL标准的SQL语句和数据的容忍度比较高。mysql 5.7 修改了默认sql mode。系统从低版本升级或迁移到高版本时,需要经过全面的测试,避免影响程序的正常运行。5....

MySQL 中的状态变量

前言本篇文章介绍一些 MySQL 中常用的监控指标,常见的监控工具都是采集 MySQL 中的状态变量(status variables)理解这些状态变量,可以更好的帮助我们理解 MySQL 监控的含义...

pg_dump

逻辑备份    PG提供了pg_dump、pg_dumpall两种方式进行逻辑备份,其区别就是pg_dumpall只能将数据库全部数据集dump到一个脚本文件中,而pg_dump可以选择指定数据库进行...

MinIO文件服务

MinIO文件服务

MinIO官网地址:docs.min.io/cn/一、Minio简介Minio 是一个基于Apache License v2.0开源协议的对象存储服务。它兼容亚马逊S3云存储服务接口,非常适合于存储大...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。