服务网格的三个技术优势及其运维局限第2部分

2023年 7月 10日 57.5k 0

本文为翻译文章,点击查看原文。

编者按

本文作者洞察全局,高屋建瓴,结合当前服务网格的形势,分析了服务网格普遍的局限性,以及从开发者角度讲述服务网格带来的三个有价值的好处:可观测性、流量控制和安全。本文的观点阐述详细而深刻,涵盖了服务网格的关键性技术与架构,以及许多备受瞩目与广泛探讨的话题。

正文

欢迎来到关于服务网格的优势和运维局限的系列文章的第2部分。在第1部分中,我们了解了开发人员如何从服务网格为微服务架构提供附加的可观察性、流量控制和安全功能的能力中获益。在这篇文章中,我们将关注同样的三个维度,但不同于开发人员关心的问题,我们会从运维团队的角度深入研究服务网格的局限性。

可观测性的限制

可观察性始终是分布式系统工程师的首选。因此,服务网格尽其所能来满足这种需求就不足为奇了。然而,工程师期望的以及服务网格提供的可观察性并没有针对传统的运维行为,比如容量规划:它关注的是运行时调试的开发活动。

当然,运行时调试要求指标在请求的执行线程上下文中是“可解释的”。这与当今联合的,有组织发展的服务架构(Organic Architecture)是不一致的,它的度量标准是不可预测和不确定的。

如果一个分布式系统的服务构建了一个应用,并且其设计在很长一段时间内保持静态,那么观测这个分布式系统是有意义的。这样的系统可以被基线化和合理化,收集到的结果指标是可以解释的——特别是当架构主要是同步模式的时候。

但是,随着今天现代企业运行的那种联合的、有组织的架构的消失,可解释性也消失了。首先,基线——以及实践人员的“基线理解”——在一个有组织的架构世界中已经过时了。如果没有基线,对度量的最终解释可能会很有挑战。此外,服务的组合减少了单个开发团队的职责范围。联合的、有组织的服务环境是由并行的、在快速决策和学习周期中发展的自我管理团队创建的。换句话说,开发团队只负责少量的服务:他们的控制范围有限。因为没有必要跟踪到不属于团队的依赖,所以可观察性只在开发团队的控制范围内才有意义。在联合的、有组织的架构中,惟一的全局控制视野是负责“整个”服务场景的运维团队,而不仅仅是一组相关服务或应用——换句话说,是“任务控制”的运维团队。

可观测性在尺度上也会变成数据密集型。随着联合的、有组织架构的增长,在遥测和追踪中收集的数据量呈指数级增长,而单个服务实例的重要性下降。换句话说,以运行时调试为目标的可观察性导致从业者收集的数据越来越多,而这些数据却越来越不重要。因此,收集到的指标几乎没有可用的。

随着这些架构的发展,可观察性需要“在技术栈中向上移动”。与收集开发人员能够理解的指标不同,运维人员需要关注更高级别的KPI,让他们能够实时检测和反应。这些KPI需要具有全局的意义。这也是服务网格提供的可观察性不足的地方。由于其固执己见的特性,服务网格往往在企业中被孤立地部署,特别是运行在Kubernetes上的环境中。另一方面,可操作的观察性需要高级的“黄金信号”指标,它可以跨裸机、虚拟机和容器部署以及跨多个区域和云工作。

总之,服务网格为运行时调试提供了可观察性。这在开发人员的控制范围内是有价值的,但是指标需要是可以在请求执行的线程上下文中可解释的。然而,在当今联合的、有组织的服务环境中,缺乏基准指标和缩小的控制范围破坏了这种可解释性。

运行时调试的可观察性也是数据密集型的,这导致以更高的成本收集更多的数据,但价值却更低。为了避免价值的螺旋下降,可观测性需要“向上移动栈”,收集更高级别的全局的黄金信号,以使任务控制运维团队能够实时检测并做出反应。服务网格提供的可观察性不符合这个目标,这不仅是因为它的目标是支持运行时调试,还因为黄金信号需要是全局的,而且服务网格过于武断和具有侵入性,不适合部署在每个地方。

流量控制的限制

服务网格的发展是为了解决如何将对服务的调用路由到最佳目标实例,例如可以最快地为请求提供服务的实例。这就是为什么服务网格是面向开发人员或“面向路由”的:它们服务于开发人员的视角,开发人员希望调用服务而不必处理复杂的远程服务调用。因此,服务网格被证明是不适合管理这样架构下的工作负载——涉及了数十个或上百个微服务之间的跨越开发团队、业务部门甚至是公司防火墙的交互,例如随着时间的推移,具有不断变化的服务到服务交互和依赖关系的组合服务架构会有机地发展。

例如,在服务网格下要表达向前路由策略和向后的流量控制是比较简单的,而下游客户端如施加backpressure或实现bulkhead就要更加困难,即使也有可能实现。服务网格的数据平面基于源和目标规则去构建流量决策从理论上讲是可能的,开发人员定位像Istio这样的控制平面,让他们提供对任意的服务交互集的流量控制。

这种将策略应用于任意服务交互集的能力的缺乏也使得策略的分层变得极其困难。例如,当一个bulkhead在两个可用性区域之间,但一个关键服务需要能够在需要是故障转移,这几乎不可能找到正确的服务网格规则的阈值,特别是自动扩展部署的情况下。

然而,对于运维人员来说,最重要的问题是服务网格在kubernetes之外的有限的可部署性——这是他们“固执己见”的直接结果。修改部署和部署过程以正确的包括一个数据平面的sidecar通常是不可能的,将虚拟机添加到服务网格是最令人费解的,但仍然不允许运维人员捕捉内部虚拟机的流量。更糟的是,要将现有的非Kubernetes工作负载集成到基于Kubernetes的服务网格中,运维人员不仅需要调整应用程序代码,还需要根据Kubernetes网络进行部署。

最后,通过YAML部署描述配置了当前服务网格实现的流量控制。部署描述是在版本控制中存储配置的一种很好的方法,因此可以用来重建定义良好的初始状态,但是它们不太适合运维团队在遇到困难时需要进行持续、实时的更改。

总之,虽然服务网格提供的流量控制支持许多面向开发人员的控制机制,如目标规则和虚拟服务定义,它不支持面向无路由的操作模式如backpressure或bulkhead。面对架构更改,服务网格策略不可能预先分层,而且很难部署到Kubernetes之外。服务网格配置通常基于部署描述,当需要进行补救时,这些描述必然会妨碍到运维团队。

安全限制

通过代理服务间调用,服务网格可以很好地提供面向开发人员的应用安全特性的核心集,比如身份验证、授权、账号、安全传输和服务标识。虽然为应用开发人员提供这些开箱即用的特性可以节省时间,但是使用YAML部署描述来配置这些特性往往比较困难且容易出错,这显然会降低他们的目标。

从操作的角度来看,这些基于服务间调用的安全特性最多只能提供有限的安全,对于运维团队所关心的系统安全问题(如影响可用性、拒绝服务攻击、入侵或分割违规)毫无帮助。

由于服务网格的固执和侵入性,它们的应用安全特性在异构环境中会发生故障,除了Kubernetes之外,异构环境还包括裸机、虚拟机、PaaS、容器或serverless部署。类似的,当不是所有的服务都有sidecar时服务网格安全特性在Kubernetes环境中也会发生故障,在“服务器sidecar”这个例子中,由于性能的原因只有目标服务有sidecar注入。

面向平台、固执己见的服务网格与应用安全性相结合也有一个影响,那就是大多数的网格与其他安全解决方案不能很好地集成——这是运维团队非常关心的问题。Istio能够使用替代的CA插件,外部工具可以使用YAML部署描述调用kubectl来实现与安全性相关的策略,但是由于服务网格不支持策略分层,外部工具不可能正确和安全地实现这些策略。

总之,服务网格提供了许多应用程序的安全特性,这些特性对开发人员很有价值,但对更具挑战性的运维安全问题贡献甚微。由于服务网格是自定义的平台,而不是与外部安全解决方案协作的开放工具,因此即使是由它们提供的应用程序安全性在异构环境中也会很快出现故障。

操作需要

对于构建微服务应用的开发团队,服务网格提供了许多好处,可以抽象出分布式服务带来的复杂性。其中的一些好处如加密、“智能”路由和运行时可观察性帮助运维这样的应,但很快被证明太有限,随着应用程序的增长,服务会变得更加关联且业务采用联合的,有机发展的服务场景。

运维团队需要控制的不仅仅是服务间调用。他们需要能够将运维模式应用到任意一组交互中。它们还需要能够分层的策略,以便能够在不影响彼此的情况下实现。运维团队需要能够实时控制服务环境,而不需要管理数百个YAML描述。要做到这一切,他们不需要武断的平台,而是需要与现有工具集成的、应用于整个服务场景的工具,而不影响任何部署。

因此,如果服务网格技术,其核心是用于开发人员在Kubernetes之上创建复杂度有限的独立应用程序,而不是用于让运维团队确保整个异构和动态服务环境的正确运维,那么我们如何解决必要的运维问题呢?

  • **解决方案1:继续等待,直到服务网格解决运维关注的这些问题。**对于我们这些将服务网格(特别是Istio)视为每个分布式问题的一体化解决方案的人来说,最简单的解决方案就是等待服务网格支持这些问题。当然,这不大可能发生。服务网格是围绕开发人员的关注点(如服务链接和更智能的实例路由)而设计的,必须进行很大的更改才能支持运维模式,而这通常无法通过管理点对点连接来解决。
  • **解决方案2:在这个问题上投入更多的工程。**工程师的答案是,在这个问题上投入更多的工程。开发人员可以编写策略引擎、粘接代码来集成服务网格安全性和其他安全工具、数据聚合器来收集运维人员需要的高级指标等等。显然,这将耗费更多成本,而且不太可能在短期内令人满意。
  • **解决方案3:采用云流量控制器。**最好的选择是将服务网格留给开发团队,让运维团队采用云流量控制器。这样,运维团队可以检测到复杂紧急的行为,并实时纠正,创造他们所需要的自动化来有效的实现需要的运维模式,保证架构的可控。

Glasnostic就是这样一个云流量控制器。

**图 1:**是一个云流量控制器,允许运维和安全团队控制微服务应用之间的复杂交互和行为。

Glasnostic是一个用于服务环境的控制平面,它帮助运维和安全团队大规模地控制关联的微服务应用之间的复杂交互和行为。这与服务网格相反,服务网格管理应用程序中的服务到服务连接。Glasnostic是一个独立的解决方案,而不是另一个平台。它不需要sidecar或代理,并且能干净地集成到任何现有环境中。

通过获得对服务交互的控制,团队可以控制紧急行为、防止级联故障和避免安全漏洞。

Glasnostic是借鉴了成功的可以有机发展的架构之后才被构建的,它反对预先进行严格的设计。它使用一种独特的基于网络的方法来为运维人员提供他们需要的可观察性和控制能力,以检测和纠正服务场景中的紧急行为。

相关文章

KubeSphere 部署向量数据库 Milvus 实战指南
探索 Kubernetes 持久化存储之 Longhorn 初窥门径
征服 Docker 镜像访问限制!KubeSphere v3.4.1 成功部署全攻略
那些年在 Terraform 上吃到的糖和踩过的坑
无需 Kubernetes 测试 Kubernetes 网络实现
Kubernetes v1.31 中的移除和主要变更

发布评论