开源大数据集群部署(二十二)Flink on yarn部署

櫰木2年前技术文章593

flink on yarn部署(每个节点)

cd  /root/bigdata/
tar -xzvf  flink-1.14.6-bin-scala_2.12.tgz -C /opt/
 ln -s /opt/flink-1.14.6 /opt/flink


修改环境变量添加内容

vi /etc/profile.d/bigdata.sh
export HADOOP_CLASSPATH=`hadoop classpath`


 

引用变量

source /etc/profile

 

生成keytab

bash /data/kerberos/getkeytabs.sh /etc/security/keytab/flink.keytab flink


3.1.2 配置修改

c

cd /opt/flink
cat conf/flink-conf.yaml
blob.server.port: 6124
jobmanager.memory.process.size: 1024m
jobmanager.rpc.address: localhost
jobmanager.rpc.port: 6123
query.server.port: 6125
rest.port: 8081
taskmanager.memory.process.size: 1024m
taskmanager.numberOfTaskSlots: 1
taskmanager.rpc.port: 6122
state.backend: rocksdb
state.checkpoints.dir: hdfs:///flink/flink/flink-checkpoints
state.savepoints.dir: hdfs:///flink/flink/fink-savepoints
jobmanager.archive.fs.dir: hdfs:///flink/flink/completed-jobs
historyserver.archive.fs.dir: hdfs:///flink/flink/completed-jobs
historyserver.archive.fs.refresh-interval: 1000
security.kerberos.login.keytab: /etc/security/keytab/flink.keytab
security.kerberos.login.principal: flink/hd1.dtstack.com@DTSTACK.COM
 
high-availability: zookeeper
high-availability.zookeeper.quorum:hd1:2181,hd2:2181,hd3:2181
high-availability.zookeeper.path.root: /flink
high-availability.cluster-id: /flink-ha
high-availability.storageDir: hdfs:///flink/flink/recovery
zookeeper.sasl.login-context-name: Client
zookeeper.sasl.service-name: zookeeper
yarn.application-attempts: 10
classloader.check-leaked-classloader: false


 

创建目录

hdfs dfs -mkdir -p /flink/flink/completed-jobs
hdfs dfs -mkdir -p /flink/flink/flink-checkpoints
hdfs dfs -mkdir -p hdfs:///flink/flink/fink-savepoints
hdfs dfs -mkdir /user/flink
hdfs dfs -chown -R  flink  /flink/flink/recovery/flink-ha
hdfs dfs -chown flink /user/flink


3.1.3 分发安装包

scp /opt/flink-1.14.6 root@hd2:/opt/
scp /opt/flink-1.14.6 root@hd3:/opt/


3.1.4 提交测试任务

Per_job 任务

./bin/flink run -m yarn-cluster -yjm 1024 -ytm 1024 examples/batch/WordCount.jar

图片5.png

 

提交session 模式

./bin/yarn-session.sh -n 3 -s 3 -nm flink-sessiontest -d -q

 

 图片6.png

./bin/flink run -m hd2.dtstack.com:8081 -p 2  examples/batch/WordCount.jar


访问8081的页面

图片7.png


相关文章

开源大数据集群部署(二十一)Spark on yarn 部署

开源大数据集群部署(二十一)Spark on yarn 部署

3.0.1 spark on yarn安装(每个节点) cd /root/bigdata/ tar -xzvf spark-3.3.1-bin-hadoop3.tgz -C /opt/ ln -s...

ES部署以及扩容

ES部署以及扩容

单节点RPM包方式部署1、下载RPM包官网下载地址:Download Elasticsearch | Elastic默认下载的为最新版本,如果想要下载历史版本,点击此处查看历史版本此处安装ES7.X...

CDH配置HTTPS访问

CDH配置HTTPS访问

申请一台新的机器部署nginx,生成https/ssl证书的机器没有要求1.生成https/ssl证书[root@cdp01 ~]# mkdir -p /data/cert [root@cdp01 ...

SQL隐式转换导致索引失效_字符集不一致

3.字符集不一致导致索引失效示例 SQL 如下,通过查看执行计划发现 XXX 和 XXXX 表在进行表关联的时候没有走索引,导致 SQL 扫描数量较大。核实表结构发现表关联对应列都存在索引,最终查看字...

阿里云上oracle 11g rac部署

1 环境规划1.1 物理环境规划ECS 类型服务器类型服务器配置操作系统版本Oracle 版本阿里云g7se8C 32GCentOS 7.911.2.0.4.01.2 磁盘规划DBNAMEHOSTNA...

MySQL的数据拆分

MySQL的数据拆分

一、拆分的概念数据拆分当数据过大,存储、SQL性能达到瓶颈;或多个业务共用一个数据库实例,一个小功能故障导致整个系统瘫痪;为解决类似问题,需考虑对数据进行拆分;粗一级的拆分,针对的是业务系统,将不同业...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。