kubernetes job和cronjob

木木2年前技术文章823

一、Job

Job 负责批处理任务,即仅执行一次的任务,它保证批处理任务的一个或多个 Pod 成功结束。

特殊说明

1、spec.template 格式同 Pod

2、RestartPolicy 仅支持 Never 或 OnFailure

3、单个 Pod 时,默认 Pod 成功运行后 Job 即结束

4、spec.completions 标志 Job 结束需要成功运行的 Pod 个数,默认为 1

5、spec.parallelism 标志并行运行的 Pod 的个数,默认为 1

6、spec.activeDeadlineSeconds 标志失败 Pod 的重试最大时间,超过这个时间不会继续重试

Job 应用示例:

vim job.yaml

apiVersion: batch/v1
kind: Job
metadata:
 name: job
spec:
 template:
   metadata:
     name: job
   spec:
     containers:
     - name: job
       image: docker.io/perl
       command: ["perl", "-Mbignum=bpi", "-wle", "print bpi(2000)"]
     restartPolicy: Never

然后我们来看一下 Pod 的信息:

63.png

我们在来看下日志信息:

64.png

任务完成, π 的2000位信息。

二、Cronjob

Cron Job 管理基于时间的 Job,即:

在给定时间点只运行一次

周期性地在给定时间点运行

使用条件: 当前使用的 Kubernetes 集群,版本 >= 1.8

典型的用法:

在给定的时间点调度 Job 运行

创建周期性运行的 Job,例如:数据库备份、发送邮件

CronJob Spec:

spec.template 格式同 Pod

RestartPolicy 仅支持 NeverOnFailure

单个 Pod 时,默认 Pod 成功运行后 Job 即结束

spec.schedule: 调度,必需字段,指定任务运行周期,格式同 Cron

spec.jobTemplate: Job 模板,必需字段,指定需要运行的任务,格式同 Job

spec.startingDeadlineSeconds: 启动 Job 的期限(秒级别),该字段是可选的。如果因为任何原因而错过了被调度的时间,那么错过执行时间的 Job 将被认为是失败的。如果没有指定,则没有期限

spec.concurrencyPolicy: 并发策略,该字段也是可选的。它指定了如何处理被 Cron Job 创建的 Job 的并发执行。只允许指定下面策略中的一种:

Allow (默认): 允许并发运行 Job

Forbid : 禁止并发运行,如果前一个还没有完成,则直接跳过下一个

Replace : 取消当前正在运行的 Job,用一个新的来替换

注意,当前策略只能应用于同一个 Cron Job 创建的 Job。如果存在多个 Cron Job,它们创建的 Job 之间总是允许并发运行。

spec.suspend : 挂起,该字段也是可选的。如果设置为 true ,后续所有执行都会被挂起。它对已经开始执行的 Job 不起作用,默认值为 false

spec.successfulJobsHistoryLimitspec.failedJobsHistoryLimit : 历史限制,是可选的字段。它们指定了可以保留多少完成和失败的 Job 。默认情况下,它们分别设置为 3 和 1 。设置限制的值为 0 ,相关类型的 Job 完成后将不会被保留。

Cronjob 应用示例:

vim cronjob.yaml

apiVersion: batch/v1beta1
kind: CronJob
metadata:
 name: hello
spec:
 schedule: "*/1 * * * *"
 jobTemplate:
   spec:
     template:
       spec:
         containers:
         - name: hello
           image: docker.io/busybox
           args:
           - /bin/sh
           - -c
           - date; echo Hello from the Kubernetes cluster
         restartPolicy: OnFailure

然后我们来运行我们的 Cronjob:

65.png

我们来查看一下我们的 Pod :

66.png

我们来查看一下我们的 Job :

67.png

我们来查看一下我们的日志信息:

68.png



相关文章

ReadConcern与WriteConcern

一、ReadConcern1、ReadConcern vs ReadPreferenceReadPreference 主要控制从副本集哪个节点来读取数据,该参数可以实现读写分离、就近读取的功能prim...

企业级大数据安全架构(三)

企业级大数据安全架构(三)

一、Ambair修改集群节点hostname在后面安装FreeIPA,需要机器名带全域名,如果我们之前集群节点机器名不是全域名可以按照下面方法在Ambari上修改所有节点机器名1.部署节点说明本次测试...

Kubernetes日志收集

Kubernetes日志收集

关于容器日志Docker的日志分为两类,一类是Docker引擎日志;另一类是容器日志。引擎日志一般都交给了系统日志,不同的操作系统会放在不同的位置。本文主要介绍容器日志,容器日志可以理解是运行在容器内...

从Docker拉取镜像一直失败超时?这些解决方案帮你解决烦恼

设置国内源:提示:常规方案(作用不大)阿里云提供了镜像源:https://cr.console.aliyun.com/cn-hangzhou/instances/mirrors 登录后你会获得一个专属...

Greenplum数据库建立外部表加载HDFS文件实践指导

Greenplum数据库建立外部表加载HDFS文件实践指导

环境概述(1)     Greenplum数据库版本号Greenplum Database 4.3.0.0POC3 build 45206(基于PostgreS...

数仓主流架构简介之一

数仓主流架构简介之一

一、Lambda架构Apache Storm的创建者Nathan Marz于 2011 年开发,旨在解决大规模实时数据处理的挑战。Lambda数据架构提供了一个可扩展、容错且灵活的系统来处理大量数据。...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。