开启 Calico eBPF 数据平面实践

2023年 7月 9日 34.3k 0

简介

Calico 从 v3.13 开始,集成了 eBPF 数据平面。

关于什么是 eBPF, 以及 Calico 为什么引入了 eBPF , 并不是本篇文章的重点,感兴趣的朋友可以自行阅读相关文档。

相比于 Calico 的默认基于 iptables 数据平面,eBPF 具有更高的吞吐量以外, 还具有 source IP preservation 这个功能。

在 K8s 中通常都是直接或者间接以 NodePort 方式对外暴露接口的。而对于 K8s 这个分布式集群来讲,通常情况下,客户端连接 Node Port 端口的节点和负责响应请求的后端业务 Pod 所在的节点不是同一个节点,为了打通整个数据链路,就不可避免的引入了 SNAT。但是这样显然也会带来一个副作用,即业务 Pod 在收到 Packet 以后,其 SRC IP 已经不再是客户端的实际 IP(被伪装成节点的内网 IP )。另一方面,对于一些业务应用来讲,获取客户端 IP 是一个实实在在的刚需。比如:业务应用需要通过客户端 IP 来获取客户登陆的 geo 信息。

目前 K8s 主要是通过设置 externaltrafficpolicy 来规避这个问题的,但是这个方案本身并不能完全令人满意。Calico 从 v3.13 开始通过集成 eBPF 优雅地解决了这个问题。

在本篇文章中,我们将首先演示通过 KubeKey 创建一个标准的 K8s 集群,并切换数据平面到 eBPF,最后基于该数据平面做一个简单的演示。

前提条件

较新的内核, 一般 v4.18+ 即可。

笔者的测试集群:

部署 K8s 集群

Kubekey 默认的 CNI 插件为 Calico(ipip模式)。这里为了部署方便,直接使用 KubeKey 部署了一个全新的 K8s 集群,版本为 v1.18.6 。KubeKey 的详细用法参见文档。

切换 Calico 数据平面

Calico 支持多种数据平面,通过修改配置可以方便地进行切换,详细信息可以参见官方文档。

主要分为以下几步:

  • 确认 BPF 文件系统已经挂载:
  • mount | grep "/sys/fs/bpf"
    

    如果能看到以下信息,则代表 BPF 文件系统已经挂载:

  • 创建 Calico 配置文件:
    • 首先获取 ks-apiserver endpoints 信息:
    kubectl get endpoints kubernetes -o wide
    
    • 由于 KubeKey 是通过 manifest 方式安装的 Calico,这里我们只需要创建一个 cm 即可:
    kind: ConfigMap
    apiVersion: v1
    metadata:
      name: kubernetes-services-endpoint
      namespace: kube-system
    data:
      KUBERNETES_SERVICE_HOST: ""
      KUBERNETES_SERVICE_PORT: ""
    
    • 重启 Calico pods,并等待 Calico Pod 重新变为 Running 状态
    kubectl delete pod -n kube-system -l k8s-app=calico-node
    kubectl delete pod -n kube-system -l k8s-app=calico-kube-controllers
    
    • 关闭 kube-proxy
    kubectl patch ds -n kube-system kube-proxy -p '{"spec":{"template":{"spec":{"nodeSelector":{"non-calico": "true"}}}}}'
    
    • 开启 eBPF 模式
    calicoctl patch felixconfiguration default --patch='{"spec": {"bpfEnabled": true}}'
    
    • 由于我们需要保留客户端 IP,所以需要开启 DSR 模式。
    calicoctl patch felixconfiguration default --patch='{"spec": {"bpfExternalServiceMode": "DSR"}}'
    

    至此,Calico 的整个网络环境已经配置完毕。

    体验

    为了验证 Calico 切换到 eBPF 数据平面以后,后端确实可以拿到客户端的真实 IP ,下面我们会在集群中部署一个 Nginx 服务,并通过 nodeport 方式暴露接口。

    创建 Nginx 实例并暴露外部接口:

    master:~$ kubectl apply -f -

    相关文章

    KubeSphere 部署向量数据库 Milvus 实战指南
    探索 Kubernetes 持久化存储之 Longhorn 初窥门径
    征服 Docker 镜像访问限制!KubeSphere v3.4.1 成功部署全攻略
    那些年在 Terraform 上吃到的糖和踩过的坑
    无需 Kubernetes 测试 Kubernetes 网络实现
    Kubernetes v1.31 中的移除和主要变更

    发布评论