Volcano 源码解读(一)控制器

2024年 3月 4日 86.5k 0

在云原生领域工作了 1.5 年,总是被各种业务压着,都没时间好好回头看看总结下。希望能够通过平台来记些笔记,也算是对自己的认可吧。

一、Volcano 背景

先来看看官方描述:

Volcano 是 CNCF 下首个也是唯一的基于 Kubernetes 的容器批量计算平台,主要用于高性能计算场景。它提供了 Kubernetes 目前缺少的一套机制,这些机制通常是机器学习大数据应用、科学计算、特效渲染等多种高性能工作负载所需的。作为一个通用批处理平台,Volcano 与几乎所有的主流计算框 架无缝对接,如 Spark 、TensorFlow 、PyTorch 、 Flink 、Argo 、MindSpore 、 PaddlePaddle 等。它还提供了包括基于各种主流架构的 CPU、GPU 在内的异构设备混合调度能力。Volcano 的设计理念建立在 15 年来多种系统和平台大规模运行各种高性能工作负载的使用经验之上,并结合来自开源社区的最佳思想和实践。

简单点说,Volcano 是一个批调度器,且定义了一些资源,用以支持批调度。本文旨在从源码上分析 Volcano 调度机制(所有分析以开源 tag v1.9.0-alpha.0 为准)。若读者对 Volcano 基本概念不了解,请自行阅读官方文档 Volcano 官方文档。

二、源码分析

2.1 核心理念

Queue

Queue 用于管理和优先级排序任务。它允许用户根据业务需求或优先级,将作业分组到不同的队列中,各个队列所能使用的资源由用户自定义。这有助于更好地控制资源分配和调度优先级,确保高优先级的任务可以优先获取资源。

PodGroup

一组相关的 Pod 集合。主要解决 Kubernetes 原生调度器中单个 Pod 调度的限制。通过将相关的 Pod 组织成 PodGroup,Volcano 能够更有效地处理那些需要多个 Pod 协同工作的复杂任务。PodGroup 是调度器识别的基本单位。
实际调度过程中由 Volcano 调度的 Pod,都通过 annotation 与 PodGroup 建立关联,且 spec.schedulerName 均为 Volcano 调度器。

VolcanoJob

VolcanoJob (后期简称 Job)不仅包括了 Kubernetes Job 的所有特性,还加入了对批处理作业的额外支持,使得 Volcano 能够更好地适应高性能和大规模计算任务的需求。
Job Controller 会根据 Job 中定义的 Task 创建出 PodGroup 和 Pod。

2.2 控制器逻辑

Job Controller 监听 Job 资源,并根 Job 上的信息创建对应的 PodGroup 和 Pod。因此,本文从 Job Controller 开始介绍。其次

Job Controller

以 cmd/controller-manager/main.go 为入口,查看 Job 相关逻辑。main.go 中最主要的是 app.Run 方法,该方法中有个 startControllers(config, opt) 方法,startControllers(config, opt) 中有个 c.Run 方法,而 JobController 是 c 的实现之一,此时 Job Controller 启动运行。

// cmd/controller-manager/main.go
func main() {
    // ...
	if err := app.Run(s); err != nil {
		fmt.Fprintf(os.Stderr, "%v\n", err)
		os.Exit(1)
	}
}

// cmd/controller-manager/app/server.go
// Run the controller.
func Run(opt *options.ServerOption) error {
    // ...
    run := startControllers(config, opt)
    // ...
}

// cmd/controller-manager/app/server.go
func startControllers(config *rest.Config, opt *options.ServerOption) func(ctx context.Context) {
	// ...
    go c.Run(ctx.Done())
    // ...
}

在 JobController 的 Run 中启动 worker(),继续往后跟 worker() 方法能找到一个 processNextReq() 方法,此时走到业务逻辑。其中 workers 是个 int 类型的整数,表示 worker 个数(目前不清楚为什么没有选用 controller-runtime 框架,而且是使用这种比较裸的方式)。

// pkg/controllers/job/job_controller.go
func (cc *jobcontroller) Run(stopCh <-chan struct{}) {
	// ...
	for i = 0; i < cc.workers; i++ {
		go func(num uint32) {
			wait.Until(
				func() {
					cc.worker(num)
				},
				time.Second,
				stopCh)
		}(i)
	}
}

func (cc *jobcontroller) worker(i uint32) {
	klog.Infof("worker %d start ...... ", i)

	for cc.processNextReq(i) {
	}
}

processNextReq 包含了很多框架类的代码,比如获取 key,在 cache 中查看对象等,此类不再赘述。其中最主要的是 Execute 方法。

// pkg/controllers/job/job_controller.go
func (cc *jobcontroller) processNextReq(count uint32) bool {
	queue := cc.queueList[count]
	obj, shutdown := queue.Get()
	// ......

	jobInfo, err := cc.cache.Get(key)
	// ......

	st := state.NewState(jobInfo)
	// ......

	if err := st.Execute(action); err != nil {
		// ......
	}

	queue.Forget(req)

	return true
}

此时先来探索下 st 为何物。st 获取 Job 的 Status.State.Phase 字段,并封装成 State 类型返回。Job 有多个 State 类型的对象,不同的对象后续有自己的 Execute 实现。

// pkg/controllers/job/state/factory.go
// NewState gets the state from the volcano job Phase.
func NewState(jobInfo *apis.JobInfo) State {
	job := jobInfo.Job
	switch job.Status.State.Phase {
	case vcbatch.Pending:
		return &pendingState{job: jobInfo}
	case vcbatch.Running:
		return &runningState{job: jobInfo}
    case ...
	}
}

Execute 函数有个 action 入参,action 参数和 state 类型共同决定了执行逻辑,而执行逻辑主要分为 SyncJob 和 KillJob。比如以 PendingState 为例(初始状态),syncJob 出现了,也就是 Job 的核心逻辑。

// pkg/controllers/job/state/pending.go
func (ps *pendingState) Execute(action v1alpha1.Action) error {
	switch action {
	// ......
	default:
		return SyncJob(ps.job, func(status *vcbatch.JobStatus) bool {
			if ps.job.Job.Spec.MinAvailable <= status.Running+status.Succeeded+status.Failed {
				status.State.Phase = vcbatch.Running
				return true
			}
			return false
		})
	}
}

读者们如果关心其他 State 类型的实现,可自行阅读源码。其中 action 参数和 state 类型共同决定了执行逻辑,对应关系如下表所示(空白表示是 KillJob):

| Action\State | Pending | Aborting | Aborted | Running | Restarting | Completing | Terminating | Terminated Completed Failed
| ----- | ----- |
| AbortJob | | | | | | | | |
| RestartJob | | | | | | | | |
| RestartTask | SyncJob | | | SyncJob | | | | |
| TerminateJob | | | | | | | | |
| CompleteJob | | | | | | | | |
| ResumeJob | SyncJob | | | SyncJob | | | | |
| SyncJob | SyncJob | | | SyncJob | | | | |
| EnqueueJob | SyncJob | | | SyncJob | | | | |
| SyncQueue | SyncJob | | | SyncJob | | | | |
| OpenQueue | SyncJob | | | SyncJob | | | | |
| CloseQueue | SyncJob | | | SyncJob | | | | |
接着就来看下 reconcile 的核心逻辑:SyncJob。这里主要包含两个核心逻辑:

  • 调用 initiateJob 方法初始化 Job。首先初始化 Job 状态为 Pending;其次调用 pluginOnJobAdd,其中调用 Job.Spec.Plugins 中插件的 OnJobAdd 方法设置 job.Status.ControlledResources 变量;再次调用 createJobIOIfNotExist 方法创建 pvc;最后用 createOrUpdatePodGroup 创建 PodGroup;
  • 遍历 Job.Spec.Tasks,为其创建对应的 Pod 资源。
  • 咱们先来看下创建 PodGroup 的逻辑,从代码中可以看 Job 和 PodGroup 是一一对应的关系。

    // pkg/controllers/job/job_controller_actions.go
    func (cc *jobcontroller) initiateJob(job *batch.Job) (*batch.Job, error) {
    	// ......
    
    	if err := cc.createOrUpdatePodGroup(newJob); err != nil {
    		cc.recorder.Event(job, v1.EventTypeWarning, string(batch.PodGroupError),
    			fmt.Sprintf("Failed to create PodGroup, err: %v", err))
    		return nil, err
    	}
    
    	return newJob, nil
    }
    
    func (cc *jobcontroller) createOrUpdatePodGroup(job *batch.Job) error {
        pg := &scheduling.PodGroup{
            ObjectMeta: metav1.ObjectMeta{
                Namespace: job.Namespace,
                // 这个 pgName 内容是 job.Name + "-" + string(job.UID)
                Name:        pgName,
                Annotations: job.Annotations,
                Labels:      job.Labels,
                OwnerReferences: []metav1.OwnerReference{
                    *metav1.NewControllerRef(job, helpers.JobKind),
                },
            },
            Spec: scheduling.PodGroupSpec{
                MinMember:         job.Spec.MinAvailable,
                MinTaskMember:     minTaskMember,
                Queue:             job.Spec.Queue,
                MinResources:      cc.calcPGMinResources(job),
                PriorityClassName: job.Spec.PriorityClassName,
            },
        }
    }
    
    

    咱们再来看看调谐 Pod 的过程。syncJob 遍历所有 tasks,然后生成 task 所需的 Pod 模版,并放到 podToCreate(类型是 map[string][]*v1.Pod)映射中。注意在 createJobPod 中会为 Pod 打上几行 annotations,其中有个 KubeGroupNameAnnotationKey = pgName,也就是 scheduling.k8s.io/group-name=pg-name。此时可以发现 Pod 与 PodGroup 是通过 Annotation 关联起来的。删除 Pod 的逻辑读者可以自行查看哈,也是在同一个方法里面。

    // pkg/controllers/job/job_controller_actions.g
    for _, ts := range job.Spec.Tasks {
        ts.Template.Name = ts.Name
        tc := ts.Template.DeepCopy()
        name := ts.Template.Name
    
        pods, found := jobInfo.Pods[name]
        if !found {
            pods = map[string]*v1.Pod{}
        }
    
        var podToCreateEachTask []*v1.Pod
        // 每个 Task 对应一组 pods,所以这里有一个循环
        for i := 0; i < int(ts.Replicas); i++ {
            podName := fmt.Sprintf(jobhelpers.PodNameFmt, job.Name, name, i)
            if pod, found := pods[podName]; !found {
                // 这个 createJobPod 只是组装 Pod 资源对象,类型是 *v1.Pod
                newPod := createJobPod(job, tc, ts.TopologyPolicy, i, jobForwarding)
                if err := cc.pluginOnPodCreate(job, newPod); err != nil {
                    return err
                }
                // 加到队列中
                podToCreateEachTask = append(podToCreateEachTask, newPod)
                waitCreationGroup.Add(1)
            } else {
                // ......
            }
        }
        podToCreate[ts.Name] = podToCreateEachTask
        // ......
    }
    
    

    PodGroup Controller

    PodGroup Controller 的逻辑比较简单,负责为未制定的 PodGroup 且调度器为 Volcano 的 Pod 分配 PodGroup。其中 pkg/controllers/podgroup/pg_controller.go 中入口逻辑逻辑与 Job Controller 类似,再次不再赘述,咱们直接看核心逻辑 processNextReq():

    // pkg/controllers/podgroup/pg_controller.go
    func (pg *pgcontroller) processNextReq() bool {
        // ...
    	req := obj.(podRequest)
    	defer pg.queue.Done(req)
    
        // 获取 Pod 对象
    	pod, err := pg.podLister.Pods(req.podNamespace).Get(req.podName)
    	if err != nil {
    		klog.Errorf("Failed to get pod by <%v> from cache: %v", req, err)
    		return true
    	}
        // 根据调度器名称过滤,只关注调度器为 Volcano 的 Pod
    	if !commonutil.Contains(pg.schedulerNames, pod.Spec.SchedulerName) {
    		klog.V(5).Infof("pod %v/%v field SchedulerName is not matched", pod.Namespace, pod.Name)
    		return true
    	}
        // 若 Annotations 有值,则表示已关联,不做处理
    	if pod.Annotations != nil && pod.Annotations[scheduling.KubeGroupNameAnnotationKey] != "" {
    		klog.V(5).Infof("pod %v/%v has created podgroup", pod.Namespace, pod.Name)
    		return true
    	}
    
    	// 为 Pod 分配 PodGroup
    	if err := pg.createNormalPodPGIfNotExist(pod); err != nil {
    		klog.Errorf("Failed to handle Pod <%s/%s>: %v", pod.Namespace, pod.Name, err)
    		pg.queue.AddRateLimited(req)
    		return true
    	}
        // ...
    }
    

    createNormalPodPGIfNotExist 中逻辑大致如下:

  • 若名称为 "podgroup-$pod.Uid"(不存在 Pod Ownerrefrence.Controller 的情况,若存在,命名方式读者可自行了解)的 PodGroup 不存在,则创建 PodGroup,否则走到下一步;
  • 更新 Pod.Annotation.[scheduling.k8s.io/group-name]=pg-name。
  • Queue Controller

    不同于前两者,Queue Controller 同时监听 Queue 和 PodGroup。
    Queue Controller 中的入口函数为 processNextWorkItem 下的 handleQueue 方法,本文直接进到此处来看。可以发现 Queue Controller 同样也会根据当前 State,调用不同的 Execute 方法。而 Execute 方法中也会根据不同的 Action,调用不同的原子方法。总结来说就是 State 和 Action 共同决定后面走哪段逻辑。

    // pkg/controllers/queue/queue_controller.go
    func (c *queuecontroller) handleQueue(req *apis.Request) error {
        // ...
    	queueState := queuestate.NewState(queue)
    
    	if err := queueState.Execute(req.Action); err != nil {
    		return fmt.Errorf("sync queue %s failed for %v, event is %v, action is %s",
    			req.QueueName, err, req.Event, req.Action)
    	}
        // ...
    }
    

    “State 和 Action”与“调用方法”的对应关系如下表所示,涉及到 SyncQueue、OpenQueue 和 CloseQueue:
    | Action\State | Open | Closed | Closing | Unknown
    | ----- | ----- |----- | ----- |
    | OpenQueue | SyncQueue | OpenQueue | OpenQueue | OpenQueue
    | CloseQueue | CloseQueue | SyncQueue | SyncQueue | CloseQueue
    | SyncQueue | SyncQueue | SyncQueue | SyncQueue | SyncQueue

    SyncQueue、OpenQueue 和 CloseQueue 方法的概述如下:

  • SyncQueue 用以统计当前 PodGroup 的个数与状态,并更新到 Queue 的 Status 中;
  • OpenQueue 将 Queue 状态置为 Open;
  • CloseQueue 将 Queue 状态置为 Closed。
  • 下面以 SyncQueue 为例看下具体逻辑,另外两种方法读者可自行阅读。

    // pkg/controllers/queue/queue_controller_action.go
    func (c *queuecontroller) syncQueue(queue *schedulingv1beta1.Queue, updateStateFn state.UpdateQueueStatusFn) error {
         // ...
        // 获取当前 PodGroups 
    	podGroups := c.getPodGroups(queue.Name)
    
        // 统计 pg 资源状态
    	for _, pgKey := range podGroups {
    		switch pg.Status.Phase {
    		case schedulingv1beta1.PodGroupPending:
    			queueStatus.Pending++
    		case schedulingv1beta1.PodGroupRunning:
    			queueStatus.Running++
    		case schedulingv1beta1.PodGroupUnknown:
    			queueStatus.Unknown++
    		case schedulingv1beta1.PodGroupInqueue:
    			queueStatus.Inqueue++
    		}
    	}
    
        // updateStateFn是在执行器中定义的函数, 用于更新queue的状态
    	if updateStateFn != nil {
    		updateStateFn(&queueStatus, podGroups)
    	} else {
    		queueStatus.State = queue.Status.State
    	}
        
        // ...
        // 更新 Queue 资源
    	if _, err := c.vcClient.SchedulingV1beta1().Queues().UpdateStatus(context.TODO(), newQueue, metav1.UpdateOptions{}); err != nil {
    	}
        // ...
    }
    

    未完待续

    好啦,今天就先到这儿啦。看完后还是有些不解的地方,后续再补上啦;

  • job.Status.ControlledResources 到底有何用处,全局搜索了代码,暂时没找到什么端倪;
  • controller 中状态转换比较零散,本文也没好好整理,后续补上捏;
  • Admission 组件主要都做了啥呢;
  • 调度器下篇文章补上哈。
  • 相关文章

    KubeSphere 部署向量数据库 Milvus 实战指南
    探索 Kubernetes 持久化存储之 Longhorn 初窥门径
    征服 Docker 镜像访问限制!KubeSphere v3.4.1 成功部署全攻略
    那些年在 Terraform 上吃到的糖和踩过的坑
    无需 Kubernetes 测试 Kubernetes 网络实现
    Kubernetes v1.31 中的移除和主要变更

    发布评论