spark配置任务日志(Client模式& Cluster模式)

南墨2年前技术文章2354

在Spark中,日志级别可以通过log4j.properties或log4j.xml文件来配置。对于spark-submit命令启动的应用程序,可以通过以下两种方式来修改日志级别:

对于Client模式,可以通过--conf选项来指定日志级别,例如:

spark-submit --class com.xxx.App --master yarn --deploy-mode client --conf spark.driver.extraJavaOptions="-Dlog4j.configuration=file:/path/to/log4j.properties" /path/to/app.jar
在这个例子中,设置了Spark应用程序的日志级别为file:/path/to/log4j.properties中指定的级别。

对于Cluster模式,可以通过--files选项来上传log4j.properties文件到HDFS,然后通过--conf选项来指定日志级别,例如:

spark-submit --class com.xxx.App --master yarn --deploy-mode cluster --files /path/to/log4j.properties#log4j.properties --conf spark.driver.extraJavaOptions=-Dlog4j.configuration=log4j.properties --conf spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j.properties /path/to/app.jar
在这个例子中,log4j.properties文件被上传到HDFS上,然后在--conf选项中指定了日志级别为log4j.properties中指定的级别。

需要注意的是,对于Client模式和Cluster模式,修改日志级别的方式是不同的。对于Client模式,可以直接指定spark.driver.extraJavaOptions来修改日志级别。而对于Cluster模式,则需要将log4j.properties文件上传到HDFS上,并在执行命令时指定相应的参数来修改日志级别。此外,应该确保log4j.properties文件中的配置项与您想要的日志级别相符合,以确保日志输出的正确性。

相关文章

压测实操--produce压测方案

压测实操--produce压测方案

环境信息:操作系统centos7.9,kafka版本为hdp集群中的2.0版本。 Producer相关参数使用Kafka自带的kafka-producer-perf-test.sh脚本进行压测,该脚本...

at和corntab 计划任务

一、什么是计划任务每个人在生活当中或多或少都有一些工作,有的工作是按照一定周期循环的, 例如每天固定时间的闹铃、工作打卡等等; 有的工作则是临时发生的,例如刚好有亲友到访,需要你在一个特定的时间去车站...

MySQL 评估 ALTER TABLE 进度(5.7)

MySQL 评估 ALTER TABLE 进度(5.7)

一、前言问题:大表里执行 ALTER TABLE 的时候,经常会比较忐忑,会面临 “跑又跑不完 Kill 也不敢 Kill” 的窘境。需求:客户在执行 ALTER TABLE 时也会让我们来评估影响的...

oracle自带存储过程的压测使用

1、使用前提条件:A、timed_statistics参数为true B、sysdba权限 C、11g及以上版本 D、ASYNCH_IO开启通过运行以下查询,确保为数据文件启用异步 I/OCOL NA...

ranger审计Solr部署

安装前准备1.1. 创建用户和用户组groupadd solruseradd -g solr solr1.2. 添加环境变量vi /etc/profile export SOLR_HOME=/opt/...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。