EasyMR之Yarn资源队列管理
设想一下,你现在所在的公司有一套线上的hadoop集群。A部门经常做一些定时的BI报表,B部门则经常使用一些软件做一些临时需求。那么他们肯定会遇到同时提交任务的场景,这个时候到底如何分配资源满足这两个任务呢?是先执行A的任务,再执行B的任务,还是同时跑两个?如果你存在上述的困惑,可以多了解一些yarn的资源调度器。
从Hadoop2开始,官方把资源管理单独剥离出来,主要是为了考虑后期作为一个公共的资源管理平台,任何满足规则的计算引擎都可以在它上面执行。YARN作为一款Hadoop集群的资源共享,不仅仅可以跑MapReduce,还可以跑Spark,Flink。
在Yarn框架中,调度器是一块很重要的内容。有了合适的调度规则,就可以保证多个应用可以在同一时间有条不紊的工作。在YARN中有三种调度器可以选择:FIFO Scheduler,Capacity Scheduler,Fair Scheduler。
FIFO Scheduler
把应用按提交的顺序排成一个队列,是一个先进先出队列,在进行资源分配的时候,先给队列中最头部的应用进行分配资源,待最头部的应用需求满足后再给下一个分配,以此类推。FIFO Scheduler是最简单也是最容易理解的调度器,它不需要任何配置,但不适用于共享集群中。大的应用可能会占用所有集群资源,从而导致其它应用被阻塞。
Capacity调度器
允许多租户安全的共享集群资源,提供的核心理念就是Queues(队列),它支持多个队列,每个队列可配置一定的资源量,以确保在其他queues允许使用空闲资源之前,资源可以在一个组织的sub-queues之间共享。且每个队列采用FIFO调度策略。为了在共享资源上,提供更多的控制和预见性,applications在容量限制之下,可以及时的分配资源。
Fair调度器
在Fair调度器中,我们不需要预先占用一定的系统资源,Fair调度器会为所有运行的job动态的调整系统资源。当第一个大job提交时,只有这一个job在运行,此时它获得了所有集群资源;当第二个小任务提交后,Fair调度器会分配一半资源给这个小任务,让这两个任务公平的共享集群资源。需要注意的是,从第二个任务提交到获得资源会有一定的延迟,因为它需要等待第一个任务释放占用的Container。小任务执行完成之后也会释放自己占用的资源,大任务又获得了全部的系统资源。最终的效果就是Fair调度器即得到了高的资源利用率又能保证小任务及时完成。
最原始的调度规则就是FIFO,即按照用户提交任务的时间来决定哪个任务先执行,但是这样很可能一个大任务独占资源,其他的资源需要不断的等待。也可能一堆小任务占用资源,大任务一直无法得到适当的资源,造成饥饿。所以FIFO虽然很简单,但是并不能满足我们的需求。最常使用的就是容量调度策略,但是运维人员在配置容量队列时,需要考虑队列资源利用率,队列的状态,修改完成后,亦无法校验配置是否正确。EMR处于简单高效原则,开放了资源队列管理功能。
以容量调度为例,简单演示队列的使用,假设公司有个大数据部门,该部门下有个做数据同步的小组,队列树形图如下:
root ├── bigdata |---dataSync
要创建这样层次的队列,首先在父级别下面创建bigdata队列,然后在bigdata下面划分一个子队列dataSync
创建队列
首先创建父队列bigdata,设置最小容量20%,最大容量50%
在父队列中添加bigdata队列名称
<property> <!-- root队列中有哪些子队列--> <name>yarn.scheduler.capacity.root.queues</name> <value>default,bigdata</value> <description></description> </property>
设置bigdata的容量调度配置
<property> <!-- bigdata队列占用的容量百分比--> <name>yarn.scheduler.capacity.root.bigdata.capacity</name> <value>20</value> <description></description> </property> <property> <!-- root队列中bigdata队列占用的容量百分比的最大值--> <name>yarn.scheduler.capacity.root.bigdata.maximum-capacity</name> <value>50</value> <description></description> </property> <property> <!-- queue容量的倍数,用来设置一个user可以获取更多的资源。默认值为1--> <name>yarn.scheduler.capacity.root.bigdata.user-limit-factor</name> <value>1</value> <description></description> </property> <property> <!--设置bigdata队列的状态--> <name>yarn.scheduler.capacity.root.bigdata.state</name> <value>RUNNING</value> <description></description> </property>
创建子队列
在bigdata父队列下面,选择创建子队列,设置最小容量10%,最大容量30%
在bigdata队列中添加dataSync队列名
<property> <!-- bigdata队列中有哪些子队列--> <name>yarn.scheduler.capacity.root.bigdata.queues</name> <value>dataSync</value> <description></description> </property>
设置dataSync队列的容量调度配置
<property> <!-- bigdata队列dataSync子队列的容量百分比--> <name>yarn.scheduler.capacity.root.bigdata.dataSync.capacity</name> <value>10</value> <description></description> </property> <property> <!-- bigdata队列中bigdata队列占用的容量百分比的最大值--> <name>yarn.scheduler.capacity.root.bigdata.dataSync.maximum-capacity</name> <value>30</value> <description></description> </property> <property> <!-- queue容量的倍数,用来设置一个user可以获取更多的资源。默认值为1--> <name>yarn.scheduler.capacity.root.bigdata.dataSync.user-limit-factor</name> <value>1</value> <description></description> </property> <property> <!--设置子队列dataSync队列的状态--> <name>yarn.scheduler.capacity.root.bigdata.dataSync.state</name> <value>RUNNING</value> <description></description> </property>
查看队列
创建完成后,可以在EMR资源队列查看队列详情
在EMR创建完成后,也可以在yarn web管理页面查看队列创建详情
至此,yarn的一个简单容量调度就创建完成了。