体系结构
Kube路由器是围绕观察者和控制器的概念而建立的。 观察者使用Kubernetes监视API来获取与创建,更新和删除Kubernetes对象有关的事件的通知。 每个观察者获取与特定API对象相关的通知。 在从API服务器接收事件时,观察者广播事件。 控制器注册以获取观察者的事件更新,并处理事件。
Kube-router由3个核心控制器和多个观察者组成,如下图所示。
每个 controller 遵循以下结构
func Run() { for { Sync() // control loop that runs for ever and perfom sync at periodic interval } } func OnUpdate() { Sync() // on receiving update of a watched API object (namespace, node, pod, network policy etc) } Sync() { //re-concile any state changes } Cleanup() { // cleanup any changes (to iptables, ipvs, network etc) done to the system }
查看Kube-router实战
网络服务控制器
网络服务控制器负责从Kubernetes API服务器读取服务和端点信息,并相应地在每个群集节点上配置IPVS。
请阅读博客基于iptables与Kube-proxy的设计细节和利弊对比https://cloudnativelabs.github.io/post/2017-05-10-kube-network-service-proxy/
基于Kubernetes网络服务代理的Kube-route IPVS演示
特征:
- 轮询负载均衡
- 基于客户端IP的会话保持
- 如果服务控制器与网络路由控制器(带有–run-router标志的kube-router)一起使用,源IP将被保留。
- 用–masquerade-all参数明确标记伪装(SNAT)
网络策略控制器
网络策略控制器负责从Kubernetes API服务器读取命名空间,网络策略和pod信息,并相应地配置iptables以向pod提供入口过滤.
Kube-router支持networking.k8s.io/NetworkPolicy 接口 或网络策略V1/GA semantics以及网络策略的beta语义
请阅读博客网络策略控制器的设计细节 https://cloudnativelabs.github.io/post/2017-05-1-kube-network-policies/
Kube-router的iptables基于网络策略的实现演示
网络路由控制器
网络路由控制器负责读取由控制器管理器分配给节点的pod CIDR,并将路由通告给集群中其余节点(BGP peers)。对于基于pod-to-pod网络,使用BGP对于用户来说是透明的.
但是,BGP可以用于其他用例,如通告集群ip,可路由pod ip等。只有在这种情况下,才需要了解BGP和配置。请参阅下面的演示kube-router如何向外部BGP路由器发布集群IP和pod cidrs
用户指南
尝试使用集群安装程序安装Kube-router
在Kubernetes上部署Kube-router的最好的入门方法是使用集群安装程序.
kops
请查看steps 使用Kops部署Kubernetes集群与Kube-router。
bootkube
请查看steps 使用 bootkube部署Kubernetes集群与Kube-router。
kubeadm
请查看steps使用Kubeadm部署Kubernetes集群与Kube-router。
deployment
根据要使用的kube-router的功能,可以使用多个部署选项. 你可以使用这些参数 –run-firewall, –run-router, –run-service-proxy 有选择地只启用kube-router所需的功能。
您也可以选择运行kube-router作为在每个群集节点上运行的agent。 另外可以通过daemonset在每个节点上运行kube-router作为pod。
命令行选项
Usage of ./kube-router: --advertise-cluster-ip 将该服务的集群IP添加到RIB,以便通告给BGP peers. --advertise-external-ip 将服务的外部IP添加到RIB,以便将其通告给BGP peers. --cleanup-config 清理iptables规则,ipvs,ipset配置并退出. --cluster-asn uint 集群节点运行iBGP的ASN编号. --cluster-cidr string 群集中的CIDR范围。它被用来识别pods的范围. --config-sync-period duration apiserver配置同步之间的延迟(例如“5s”,“1m”)。必须大于0.(默认1m0s) --enable-overlay 当enable-overlay设置为true时,IP-in-IP隧道将用于跨不同子网中节点的pod-pod联网。如果设置为false,则不使用隧道,并且路由基础架构预计为不同子网中的节点之间的pod-pod联网路由流量(默认值为true) --enable-pod-egress 从Pod到群集外的SNAT流量。 (默认为true) --hairpin-mode 为每个服务端点添加iptable规则以支持流量管控. -h, --help 打印使用信息. --hostname-override string 覆盖节点的NodeName。如果kube-router无法自动确定您的NodeName,请设置此项. --iptables-sync-period duration iptables规则同步之间的延迟(例如'5s','1m')。必须大于0.(默认1m0s) --ipvs-sync-period duration ipvs config同步之间的延迟(例如'5s','1m','2h22m')。必须大于0.(默认1m0s) --kubeconfig string 具有授权信息的kubeconfig文件的路径(主位置由主标志设置)。 --masquerade-all SNAT所有流量到群集IP /节点端口。 --master string Kubernetes API服务器的地址(覆盖kubeconfig中的任何值)。 --nodeport-bindon-all-ip 对于NodePort类型的服务,创建监听节点的所有IP的IPVS服务. --nodes-full-mesh 集群中的每个节点都将建立与其他节点的BGP对等关系。 (默认为true) --peer-router-asns uintSlice 集群节点将向其通告集群ip和节点的pid cidr的BGP peers的ASN编号。 (默认[]) --peer-router-ips ipSlice 所有节点将对等的外部路由器的IP地址,并通告集群ip和pod cidr。 (默认[]) --peer-router-passwords stringSlice 用“--peer-router-ips”定义的BGP peers进行认证的密码。 --routes-sync-period duration 路线更新与广播之间的延迟(例如“5s”,“1m”,“2h22m”)。必须大于0.(默认1m0s) --run-firewall 启用网络策略 - 设置iptables为pod提供入口防火墙。 (默认为true) --run-router 启用Pod网络 - 通过iBGP发布并学习到Pod的路由。 (默认为true) --run-service-proxy 启用服务代理 - 为Kubernetes服务设置IPVS。 (默认为true)```
依赖
- Kube-router需要访问kubernetes API服务器以获取有关Pod,服务,端点,网络策略等的信息。所需的最少信息是关于在何处访问kubernetes API服务器的详细信息. 这个信息可以通过kube-router -master=http://192.168.1.99:8080/或kube-router -kubeconfig=传递。
- 如果在节点上运行kube-router作为agent,则必须在每个节点上安装ipset软件包(当以守护进程集的形式运行时,容器映像将使用ipset预先打包)
- 如果您选择使用kube-router进行pod-to-pod网络连接,则需要将Kubernetes控制器管理器通过传递–allocate-node-cidrs = true标志并提供cluster-cidr来配置分配pod CIDR。 (例如通过传递–cluster-cidr = 10.1.0.0/16)
- 如果您选择以守护进程运行kube-router,那么kube-apiserver和kubelet必须以“–allow-privileged = true”选项运行
- 如果您选择使用kube-router作为pod-to-pod网络连接,则必须将Kubernetes集群配置为使用CNI网络插件。在每个节点上,CNI conf文件预计将以/etc/cni/net.d/10-kuberouter.conf的形式出现。应使用CNI插件和用于IPAM的“host-local”。示例conf文件,可以下载wget -O /etc/cni/net.d/10-kuberouter.conf https://raw.githubusercontent.com/cloudnativelabs/kube-router/master/cni/10-kuberouter .conf
作为daemonset运行
这是部署kube-router(不要忘记确保需求)的最快方法。只需运行:
kubectl apply -f https://raw.githubusercontent.com/cloudnativelabs/kube-router/master/daemonset/kube-router-all-service-daemonset.yaml
以上将自动在每个节点上运行kube-router作为pod。您可以根据需要更改daemonset中定义的参数以匹配您的需要。有些示例可以在https://github.com/cloudnativelabs/kube-router/tree/master/daemonset中找到,使用不同的参数来选择kube-router应运行的服务.
作为agent运行
您可以选择运行kube-router作为在每个节点上运行的代理。例如,如果您只想让kube-router为pod提供入口防火墙,那么您可以这样启动kube-router
kube-router --master=http://192.168.1.99:8080/ --run-firewall=true --run-service-proxy=false --run-router=false
清理配置
您可以通过运行在节点上的kube-router清除所有已完成的配置(对ipvs,iptables,ip routes)
kube-router --cleanup-config
尝试使用kube-router作为kube-proxy的替代品
如果你有一个使用kube-proxy,并且想要尝试kube-router来做服务代理,你可以这样做
kube-proxy --cleanup-iptables
接下来
kube-router --master=http://192.168.1.99:8080/ --run-service-proxy=true --run-firewall=false --run-router=false
如果你想回到kube-proxy,那么通过运行清理由kube-router完成的配置
kube-router --cleanup-config
并使用您的配置运行kube-proxy。 – 一般步骤
发夹弯模式(一种自己访问自己的模式)
从service后面的Pod到其自己的ClusterIP:PORT的通信 默认不支持。不过,可以通过对每个服务添加kube-router.io / service.hairpin =注释,或者通过集群中的所有服务启动。
另外, 对于每个节点上的所有veth接口,hairpin_mode sysctl选项必须设置为1. 这可以通过在您的CNI配置中添加“hairpinMode”:true选项来完成,如果所有集群节点已经在运行kubernetes。
如果发送源IP来自Service ClusterIP,Hairpin traffic将被发现的发送点看到。
Hairpin Mode示例
10-kuberouter.conf
{ "name":"mynet", "type":"bridge", "bridge":"kube-bridge", "isDefaultGateway":true, "hairpinMode":true, "ipam": { "type":"host-local" } }
为服务“my-service”启用hairpin traffic:
kubectl annotate service my-service "kube-router.io/service.hairpin="
服务器直接返回
请阅读以下博客,了解如何结合使用DSR和“–advertise-external-ip”构建高度可扩展和可用的入口。 https://cloudnativelabs.github.io/post/2017-11-01-kube-high-available-ingress/
您可以为每个服务启用DSR(直接服务器返回)功能。当启用的服务端点将直接响应客户端通过签署服务代理。启用DSR时,Kube-router将使用LVS的隧道模式来实现此功能。
要启用DSR,您需要使用kube-router.io/service.dsr = tunnel注释来注释服务。例如,
kubectl annotate service my-service "kube-router.io/service.dsr=tunnel"
在当前的实现中,当在服务上应用注释时,DSR将仅适用于外部IP。
此外,当使用DSR时,当前的实现不支持端口重新映射。所以你需要使用相同的端口和目标端口的服务
你需要在kube-router守护进程清单中启用hostIPC:true和hostPID:true。并且必须将主路径/var/run/docker.sock设置为kube-router的一个volumemount。
上述更改需要kube-router输入pod namespace,并在pod中创建ipip隧道,并将外部IP分配给VIP。
对于示例清单,请查看启用DSR要求的[manifest](../ daemonset / kubeadm-kuberouter-all-features-dsr.yaml).
负载均衡调度算法
Kube-router使用LVS作为服务代理。 LVS支持丰富的调度算法。您可以为该服务添加注释以选择一个调度算法。当一个服务没有注释时,默认情况下选择“轮询”调度策略
For least connection scheduling use: kubectl annotate service my-service "kube-router.io/service.scheduler=lc" For round-robin scheduling use: kubectl annotate service my-service "kube-router.io/service.scheduler=rr" For source hashing scheduling use: kubectl annotate service my-service "kube-router.io/service.scheduler=sh" For destination hashing scheduling use: kubectl annotate service my-service "kube-router.io/service.scheduler=dh"
BGP 配置
Configuring BGP Peers
原文: https://github.com/cloudnativelabs/kube-router/tree/master/Documentation
译文: https://rocdu.io/2017/12/%E8%AF%91kube-router-documentation/