使用 cgroups为impala设置 CPU 限制

耀灵1年前技术文章684


有时应用会占用大量 CPU 时间,这可能会对环境的整体健康状况造成负面影响。使用 /sys/fs/ 虚拟文件系统,利用 控制组版本 (cgroups) 为应用配置 CPU 限制。

先决条件

  • 您有 root 权限。

  • 您有一个应用程序,您想限制其 CPU 消耗。

  • 验证是否已挂载了 cgroups 控制器:

[root@hadoop-dn4 ~]# mount -l | grep cgroup
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpuacct,cpu,clone_children)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_prio,net_cls)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
[root@hadoop-dn4 ~]#[root@hadoop-dn4 ~]# mount -l | grep cgroup
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/usr/lib/systemd/systemd-cgroups-agent,name=systemd)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpuacct,cpu,clone_children)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_prio,net_cls)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
[root@hadoop-dn4 ~]#

流程

  1. 在 CPU 消耗中识别您要限制的impala程序的进程 ID (PID):

1.jpg

top 程序的输出示例显示 PID 318767(应用 impalad)消耗了大量 CPU 资源。

  1. cpu 资源控制器目录中创建子目录:

mkdir /sys/fs/cgroup/cpu/impalad1/mkdir /sys/fs/cgroup/cpu/impalad1/

上面的目录代表控制组,您可以在其中放置特定进程并将某些 CPU 限制应用到进程。同时,目录中将创建一些 cgroups接口文件和 cpu 控制器特定的文件。

  1. (可选)检查新创建的控制组群:

[root@hadoop-dn1 impalad1]# pwd
/sys/fs/cgroup/cpu/impalad1
[root@hadoop-dn1 impalad1]# ll
total 0
-rw-r--r-- 1 root root 0 Jul 10 16:58 cgroup.clone_children
--w--w--w- 1 root root 0 Jul 10 16:58 cgroup.event_control
-rw-r--r-- 1 root root 0 Jul 10 17:00 cgroup.procs
-r--r--r-- 1 root root 0 Jul 10 16:58 cpuacct.stat
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpuacct.usage
-r--r--r-- 1 root root 0 Jul 10 16:58 cpuacct.usage_percpu
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.cfs_period_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.cfs_quota_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.rt_period_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.rt_runtime_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.shares
-r--r--r-- 1 root root 0 Jul 10 16:58 cpu.stat
-rw-r--r-- 1 root root 0 Jul 10 16:58 notify_on_release
-rw-r--r-- 1 root root 0 Jul 10 16:58 tasks[root@hadoop-dn1 impalad1]# pwd
/sys/fs/cgroup/cpu/impalad1
[root@hadoop-dn1 impalad1]# ll
total 0
-rw-r--r-- 1 root root 0 Jul 10 16:58 cgroup.clone_children
--w--w--w- 1 root root 0 Jul 10 16:58 cgroup.event_control
-rw-r--r-- 1 root root 0 Jul 10 17:00 cgroup.procs
-r--r--r-- 1 root root 0 Jul 10 16:58 cpuacct.stat
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpuacct.usage
-r--r--r-- 1 root root 0 Jul 10 16:58 cpuacct.usage_percpu
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.cfs_period_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.cfs_quota_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.rt_period_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.rt_runtime_us
-rw-r--r-- 1 root root 0 Jul 10 16:58 cpu.shares
-r--r--r-- 1 root root 0 Jul 10 16:58 cpu.stat
-rw-r--r-- 1 root root 0 Jul 10 16:58 notify_on_release
-rw-r--r-- 1 root root 0 Jul 10 16:58 tasks

示例输出中显示的文件,如 cpuacct.usagecpu.cfs._period_us,它们代表特定配置和/或限制,可以为 Example 控制组中的进程设置。请注意,对应的文件名前缀为它们所属的控制组控制器的名称。

默认情况下,新创建的控制组继承对系统整个 CPU 资源的访问权限,且无限制。

  1. 为控制组群配置 CPU 限制:

echo "1000000" > /sys/fs/cgroup/cpu/impalad1/cpu.cfs_period_us
echo "3000000" > /sys/fs/cgroup/cpu/impalad1/cpu.cfs_quota_us
echo "318767" > /sys/fs/cgroup/cpu/impalad1/cgroup.procsecho "1000000" > /sys/fs/cgroup/cpu/impalad1/cpu.cfs_period_us
echo "3000000" > /sys/fs/cgroup/cpu/impalad1/cpu.cfs_quota_us
echo "318767" > /sys/fs/cgroup/cpu/impalad1/cgroup.procs

cpu.cfs_period_us 文件表示以微秒为单位(这里表示为"us")的时段,用于控制组对 CPU 资源的访问权限应重新分配的频率。上限为 1 秒,下限为 1000 微秒。

cpu.cfs_quota_us 文件表示以微秒为单位的总时间量,控制组中的所有进程都可以在一个期间(如 cpu.cfs_period_us 定义)。当控制组中的进程在单个期间内使用配额指定的所有时间时,就会在句点的其余部分内进行限流,并且不允许在下一个期间内运行。下限为 1000 微秒。

上面的示例命令设定 CPU 时间限值,使得 Example 控制组中的所有进程仅能每 1 秒( cpu.cfs_quota_us 定义)每 1 秒(由 cpu.cfs_period_us 定义)运行 0.2 秒。

  1. 为控制组群配置 CPU 限制:

[root@hadoop-dn1 impalad1]# cat /sys/fs/cgroup/cpu/impalad1/cpu.cfs_period_us
1000000
[root@hadoop-dn1 impalad1]# cat /sys/fs/cgroup/cpu/impalad1/cpu.cfs_quota_us
3000000[root@hadoop-dn1 impalad1]# cat /sys/fs/cgroup/cpu/impalad1/cpu.cfs_period_us
1000000
[root@hadoop-dn1 impalad1]# cat /sys/fs/cgroup/cpu/impalad1/cpu.cfs_quota_us
3000000

  1. 将应用程序的 PID 添加到 Example 控制组群中:

echo "318767" > /sys/fs/cgroup/cpu/impalad1/cgroup.procs

or

echo "318767" > /sys/fs/cgroup/cpu/impalad1/tasksecho "318767" > /sys/fs/cgroup/cpu/impalad1/cgroup.procs

or

echo "318767" > /sys/fs/cgroup/cpu/impalad1/tasks

上一命令可确保所需的应用成为 impalad1 控制组的成员,因此不超过为 impalad1 控制组配置的 CPU 限值。

  1. 验证应用程序是否在指定的控制组群中运行:

[root@hadoop-dn1 impalad1]# cat /proc/318767/cgroup 
11:cpuset:/
10:freezer:/
9:pids:/
8:blkio:/
7:hugetlb:/
6:memory:/
5:cpuacct,cpu:/impalad1
4:perf_event:/
3:devices:/
2:net_prio,net_cls:/
1:name=systemd:/user.slice/user-1000.slice/session-2.scope
[root@hadoop-dn1 impalad1]# [root@hadoop-dn1 impalad1]# cat /proc/318767/cgroup 
11:cpuset:/
10:freezer:/
9:pids:/
8:blkio:/
7:hugetlb:/
6:memory:/
5:cpuacct,cpu:/impalad1
4:perf_event:/
3:devices:/
2:net_prio,net_cls:/
1:name=systemd:/user.slice/user-1000.slice/session-2.scope
[root@hadoop-dn1 impalad1]#

上面的示例输出显示所需应用的进程在 impalad1 控制组中运行,它将 CPU 限制应用到应用的进程。

  1. 验证应用程序是否在指定的控制组群中运行:

2.jpg

请注意,PID 318767 的 CPU 消耗从 1017% 降至 300%以内。


相关文章

trino容器对接hudi(五)

trino容器对接hudi(五)

前提:本文是基于已经部署了trino容器的基础上进行的。冒烟测试是在trino对接ldap后并且ranger已经对接了metastore权限后,并且spark组件已经对接hudi,并且成功创建hudi...

scylladb下线数据中心

1、在要下线的老数据中心所有节点运行数据修复nodetool -h ::FFFF:127.0.0.1 repair -pr2、更改所有业务keyspace的复制策略不在写入老的数据中心--查看所有的k...

trino容器设置污点(六)

trino容器设置污点(六)

前提:本文前提已经部署了trino容器和k8s集群。容器设置污点1、在k8s节点中设置污点kubectl taint nodes  dm04.dtstack.com dps=1:NoSchedule2...

zabbix监控华为存储设备

zabbix监控华为存储设备

确认监控方式开始监控之前首先思考确认好要监控的方式。提出疑问:zabbix 监控华为存储设备推荐使用snmptrap还是snmptt呢?回答:在 Zabbix 监控华为存储设备时,您可以选择使用 SN...

寻找CPU使用率高进程方法

寻找CPU使用率高进程方法

背景节点报CPU使用率高,需要定位是什么进程占用CPU使用率高。CPU使用率持续较高在对应节点使用 “top”命令,然后键盘输入“P”,即按照CPU使用率排序进程。执行ps -ef | grep &l...

SpringBootWeb 篇-深入了解 SpringBoot + Vue 的前后端分离项目部署上线与 Nginx 配置文件结构(3)

SpringBootWeb 篇-深入了解 SpringBoot + Vue 的前后端分离项目部署上线与 Nginx 配置文件结构(3)

4.0 SpringBoot 后端代码进行打包上传服务器        将 SpringBoot 项目进行打包:      &nb...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。