Service Mesh Interface详细介绍

2023年 7月 10日 36.2k 0

SMI介绍

SMI是什么?

5月21号,在 kubeconf上,微软联合一众小伙伴,宣布了 Service Mesh Interface,简称SMI。SMI是一个服务网格规范,定义了通用标准,包含基本特性以满足大多数场景下的通用需求。

援引来自SMI官方网站 smi-spec.io 的介绍资料,对 Service Mesh Interface 的定位是 :

A standard interface for service meshes on Kubernetes.

Kubernetes上的 service mesh 的标准接口

微软的 官方博客文章 这样介绍SMI:

SMI定义了一组通用可移植的API,为开发人员提供跨不同服务网格技术的互通性,包括Istio,Linkerd和Consul Connect。

SMI 是希望在各家 Service Mesh 的实现之上建立一个抽象的API层,然后通过这个抽象来解耦和屏蔽底层 Service Mesh 实现,让上层的应用、工具、生态系统可以建立在一个业界标准之上,从而实现跨不同实现的可移植性和互通性。

SMI推出的背景

Idit Levine,初创公司 solo.io 的创始人兼CEO,作为SMI推出的重要力量之一,撰文描述了 SMI 推出的背景:

服务网格生态系统正在兴起,众多的网格供应商和不同的用例需要不同的技术。所以问题来了:我们如何实现在不破坏最终用户体验的前提下促进行业创新?通过以一组标准API达成一致,我们可以提供互通性,并在不同网格以及为这些网格构建的工具之上维持最终用户体验。

今天发布的 Service Mesh Interface(SMI)是使这一构想走向行业现实的重要一步。

下面这幅图片可以非常清晰的表述SMI的定位,也可以帮助我们一起来解读SMI推出的背景:

  • Service Mesh的价值正在被普遍认可:从最早的Linkerd,Envoy,到两年前Google力推Istio,以及 Linkerd2 的推出,最近 AWS 推出了 App Mesh,Google 则将 Istio 搬上了Google Cloud 推出了 Istio 的公有云托管版本 Google Cloud Service Mesh,还推出了单独的控制平面产品 Google Traffic Director。微软也在去年推出了Azure完全托管版本的Service Fabric Mesh (预览版)。云市场三巨头都已经先后出手。

  • 市场上出现了众多的Service Mesh产品:开源的,闭源的,大公司出的,小公司出的,市场繁荣的同时也带来了市场碎片化的问题。

  • 在云原生理念下,我们推崇应用轻量化,只关注业务逻辑。Service Mesh技术很好的实现了这一战略目标:运行在 service mesh 上的应用可以和底层 service mesh 的具体实现解耦。理论上应用在不同的 service mesh 实现上迁移是可行的,从这一点说,service mesh 在云原生的道路上迈出了重要一步。

  • 但是,所有围绕业务应用的外围工作,比如通过 service mesh对流量进行控制,配置各种安全/监控/策略等行为,以及在这些需求上建立起来的工具和生态系统,却不得不牢牢的绑死在某个具体的 service mesh实现上,所谓"供应商锁定"。

  • 其根本问题在于各家实现不同,又没有统一标准。因此,要想解决上述问题,就必须釜底抽薪:解决 Service Mesh 的标准化问题。

  • 微软给出的解决方案就是引入SMI,作为一个通用的行业规范/标准,如果能让各家 service mesh 提供商都遵循这个标准,则有机会在具体的 service mesh 产品之上,抽象出一个公共层(如定义一组通用可移植的API),屏蔽掉上层应用/工具/生态系统对具体 service mesh 产品的实现细节。

    是不是觉得 SMI 的概念有种熟悉的味道?是的,没错,类似的事情在k8s中之前就发生过很多次,比如 CNI、CRI、CSI,还有下图展示的 Ingress:

    在SMI中,将这个目标称为 “Interoperability” / 互通性。我个人理解,这其实和 google 一直在倡导的 “not lock-in” 是一个概念:有通用的社区标准/行业标准,在此基础上客户可以在多个实现/多个供应商之间自由选择和迁移,没有被绑定的风险,而且提供给用户的功能以及使用方式也保持一致,也就是 Idit Levine 所强调的 “维持最终用户体验”。

    从这个角度说,我很欣喜的看到 SMI 的推出,虽然这条路可能不是那么容易走,但是,的确,“Service Mesh Interface(SMI)是使这一构想走向行业现实的重要一步”。

    和通用数据平面API的关系

    在SMI提出来之前不久(大概早两个星期),CNCF也在进行类似的标准化操作:CNCF正在筹建通用数据平面API工作组(Universal Data Plane API Working Group / UDPA-WG),以制定数据平面的标准API,为L4/L7数据平面配置提供事实上的标准,初始成员将包括 Envoy 和 gRPC 项目的代表。事实上是 Google 在驱动,主要参与的项目是 Istio 和 Envoy。

    下面这张图片展示UDPA 和 SMI 这两个新近推出的 Service Mesh 标准API的关系:

    • Universal Data Plane API 是数据平面的标准,控制平面通过这个API来控制数据平面的行为。工作组的初始成员来自包括 Envoy 和 gRPC 项目的代表,背后的公司主要是 Google 。
    • Service Mesh Interface 是控制平面的标准,上层的应用/工具/生态体系通过 Service Mesh Interface 来实现跨不同的Service Mesh实现为最终用户提供一致性的体验。SMI由微软牵头,联合 Linkerd,HashiCorp,Solo,Kinvolk和Weaveworks。

    SMI的目标和愿景

    关于 SMI 的目标和愿景,我援引 Idit Levine 的这段话(这段话也同样出现在 smi-spec 的 github 首页):

    SMI 是在 Kubernetes 上运行服务网格的规范。它定义了由各种供应商实现的通用标准。这使得最终用户的标准化和服务网格供应商的创新可以两全其美。SMI 实现了灵活性和互通性。

    更详细而明确的目标描述来自 smi-spec 的 github 首页:

    目标

    SMI API的目标是提供一组通用的,可移植的Service Mesh API,Kubernetes用户可以以供应商无关的方式使用这些API。通过这种方式,可以定义使用Service Mesh技术的应用程序,而无需紧密绑定到任何特定实现。

    然后还特别强调:

    非目标

    SMI项目本身不实现服务网格。SMI只是试图定义通用规范。同样,SMI不定义服务网格的具体范围,而是一个通用子集。 欢迎SMI供应商添加超出SMI规范的供应商特定扩展和API。 我们希望随着时间的推移,随着更多功能被普遍接受为服务网格的一部分,这些定义将迁移到SMI规范中。

    总结:首先非常明确的一点是,SMI是定义标准API,而不是标准实现。

    而 SMI 的具体目标,在 SMI 的官方网站是这样介绍的:

  • A standard interface for service meshes on Kubernetes: Kubernetes上的 service mesh 的标准接口
  • A basic feature set for the most common service mesh use cases:用于最通用的服务网格用例的基本特性
  • Flexibility to support new service mesh capabilities over time:随着时间的推移灵活地支持新的服务网格能力
  • Space for the ecosystem to innovate with service mesh technology: 使用服务网格技术实现生态系统创新的空间
  • SMI社区

    有需求,有市场,有想法,有目标,我们再来看看 SMI 阵营现在都有什么力量。

    微软在推出 SMI 时的描述到:SMI是一个开放项目,由微软,Linkerd,HashiCorp,Solo,Kinvolk和Weaveworks联合启动; 并得到了Aspen Mesh,Canonical,Docker,Pivotal,Rancher,Red Hat和VMware的支持。

    阵营还是挺强大的:

    • 微软:SMI的带头大哥,云计算的三巨头之一
    • Buoyant:Service Mesh 技术的拓荒牛 + 布道者,小而弥坚的初创公司,有一个不大但是力量很强又非常有经验还很务实的团队。其旗下的 Linkerd2 已经明确表示将支持 SMI。
    • HashiCorp:大名鼎鼎的 consul 就出自这里,Consul Connect 也是目前活跃的 service mesh 实现之一,虽然Consul Connect在国内知名度和影响力都很小(也就年度总结的时候捎带着看一眼状态的那种)。Consul Connect 目前也表示提供了对 SMI 的支持。
    • Solo.io:深藏不露的初创型小公司,“产品面很广,除了 Service Mesh 方面大有名气的 SuperGloo 和 Service Mesh hub 之外,还有远程调试、混沌工程、unikernels 以及微服务网关等几个产品。"(这段话我从秀龙的文章里面抄过来的,总结的很好)。另外,业界网红 Christian Posta 前段时间加入这家公司。solo公司旗下的 SuperGloo 是业界第一个 service mesh 编排产品,因此对 SMI 的热爱和支持是无可复加的。SuperGloo 和 Service Mesh Hub 已经实现了对 SMI 的支持。
    • Mesery 和 Kinvolk:这两家公司最近在 service mesh社区有点名气,因为他们近期做了 Istio vs Linkerd 的性能测试并给出了报告,闹的满城风雨。而且他们也都喜欢用 solo 出的 SuperGloo(毕竟业界号称 service mesh 编排的也就独此一家)。
    • Aspen Mesh: F5 (没错,就是那个巨贵的F5)出的的Istio商业版本。但是没有看到 Aspen Mesh 给出支持 SMI 的信息,暂时还不知道 Aspen Mesh 和 SMI 的关系。
    • vmware:vmware在2018年底推出了 VMware NSX Service Mesh ,和Aspen Mesh一样也是基于 Istio 。

    其他公司就不再一一列出来了,主要是不清楚他们在 SMI 这个事情上扮演什么角色。

    而关键点在于,Google (还有同属Istio阵营的 IBM / Lyft)不在其列。而 Service Mesh 的其他玩家,几乎都参与了 SMI,甚至包括原本在 Istio 项目上和 google 一直合作的公司,耐人寻味。

    SMI规范内容

    SMI规范介绍

    Service Mesh Interface 规范涵盖最常见服务网格能力:

    • Traffic Policy/流量策略 - 跨服务应用身份和传输加密等策略
    • Traffic Telemetry/流量遥测 - 捕获关键指标,如错误率和服务间的延迟
    • Traffic Management/流量管理 - 在不同服务之间转移流量

    SMI规范由多个API组成:

    • Traffic Access Control/流量访问控制 - 根据客户端的身份配置对特定pod和路由的访问,以将应用程序锁定到仅允许的用户和服务。
    • Traffic Specs/流量规范 - 定义流量的表示方式,基于每个协议的基础。 这些资源与访问控制和其他类型的策略协同工作,以在协议级别管理流量。
    • Traffic Split/流量分割 - 逐步引导各种服务之间的流量百分比,以帮助构建金丝雀推出。
    • Traffic Metrics/流量指标 - 暴露通用的流量指标,供dashboard和autoscaler等工具使用。

    注意:SMI 被指定为 Kubernetes Custom Resource Definitions(CRD)和 Extension API Servers 的集合。 这些API可以安装到Kubernetes集群上,并使用标准工具进行操作。

    在设计上,SMI 强调 “Provider Agnostic(供应商无关)":

    SMI API的目标是提供一组通用的可移植的服务网格API,Kubernetes用户可以以供应商无关的方式使用这些API。 通过这种方式,人们可以定义使用服务网格技术的应用程序,而无需紧密绑定到任何特定实现。

    下面我们来详细看一下 SMI 规范的具体API定义,其定义来自https://github.com/deislabs/smi-spec 。

    Traffic Spec

    Traffic Spec资源用于让用户定义流量。通常与Access Control(访问控制)和其他策略一起使用,以具体定义需要如何处理流经网格的特定类型流量。

    用户往往希望在服务网格内运行许多不同的协议。 当然,主要会是HTTP,但也会有其他协议。 Traffic Spec规范中的每个资源都旨在与特定协议1:1匹配。 这让用户可以以协议特定的方式来定义流量。

    HTTPRouteGroup

    HTTPRouteGroup 资源用于描述HTTP/1和HTTP/2流量,它枚举了应用程序可以提供的路由。

    apiVersion: specs.smi-spec.io/v1alpha1
    kind: HTTPRouteGroup
    metadata:
      name: the-routes
    matches:
    - name: metrics
      pathRegex: "/metrics"
      methods:
      - GET
    - name: health
      pathRegex: "/ping"
      methods: ["*"]
    

    上面的例子定义两个matchmetricshealth。 name 字段是key,所有字段都是必需的。 正则表达式用于匹配URI。 HTTP Mesh可以具体制定如 GET 或用 * 来匹配所有。

    HTTPRouteGroup 当前的功能限制(未来会加入,只是当前作为第一个版本内容还比较少):

  • 只支持 HTTP 协议,连 gRPC 都还未支持
  • match 字段当前仅适用于 URI。 很明显这是不够的,未来计划扩展以支持HTTP header,Host等。
  • 个人看法:目前在只有 HTTP 协议支持,而且 HTTP 路由定义居然不支持 HTTP header 匹配,足够说明目前 SMI 的确是处于项目早期状态。

    TCPRoute

    TCPRoute资源用于描述 L4 TCP流量。 这个路由极其简单(或者叫做简陋),定义应用程序接收到的原始的、无协议特征的流量。

    看完下面的yaml例子就明白为什么称为极其简单了:

    apiVersion: specs.smi-spec.io/v1alpha1
    kind: TCPRoute
    metadata:
      name: tcp-route
    

    上面的路由只做了定义,尚未与任何资源相关联。 我们继续看如何使用,比如与Access Control 配合。

    Traffic Access Control

    Traffic Access Control 资源用来为应用程序定义访问控制策略:

  • 访问控制属于授权(authorization)范畴,默认身份验证(Authentication)已经由底层实现处理
  • SMI规范中的访问控制是附加的,默认情况下拒绝所有流量。
  • TrafficTarget 规范

    TrafficTarget 规范用来定义流量访问控制,而 SMI 中访问控制是基于服务身份(service identity)的,并且目前只支持通过 Kubernetes service account 来指派服务身份(其他身份机制将在稍后支持)。

    流量访问控制有三个概念,分别在 TrafficTarget 中以三个字段定义:

  • Source:流量的来源,体现为具体的 Pod 列表,目前支持通过selector来实现,暂时不支持以资源的方式选择(如指定Deployment、指定Service)
  • Destination:流量的目标,同样体现为具体的 Pod 列表,也只支持selector
  • Route:流量规范,用来区分 Destination 提供的多种不同的流量访问方式,如下图中的api访问和获取metrics信息
  • 在这个例子中,展示对api进行访问和获取metrics信息这两个操作的流量访问控制:

    # 定义TrafficSpec
    apiVersion: specs.smi-spec.io/v1alpha1
    kind: HTTPRouteGroup
    metadata:
      name: api-service-routes
    matches:
      - name: api  # api访问的流量
        pathRegex: /api
        methods: ["*"]
      - name: metrics # 获取metrics的流量
        pathRegex: /metrics
        methods: ["GET"]
    
    ---
    kind: TrafficTarget
    apiVersion: access.smi-spec.io/v1alpha1
    metadata:
     name: api-service-metrics # 定义获取metrics的Target
     namespace: default
    destination:	# 通过 ServiceAccount 选择pods
     kind: ServiceAccount
     name: api-service
     namespace: default
    specs: # 引用traficSec定义的route,指定为获取metrics
    - kind: HTTPRouteGroup
      name: api-service-routes
      matches:
        - metrics
    sources: # 通过 ServiceAccount 选择pods
    - kind: ServiceAccount
      name: prometheus
      namespace: default
    
    ---
    kind: TrafficTarget
    apiVersion: access.smi-spec.io/v1alpha1
    metadata:
     name: api-service-api # 定义访问api接口的Target
     namespace: default
    destination: # 通过 ServiceAccount 选择pods
     kind: ServiceAccount
     name: api-service
     namespace: default
     port: 8080
    specs: # 引用traficSec定义的route,指定为api访问
    - kind: HTTPRouteGroup
      name: api-service-routes
      matches:
        - api
    sources: # 通过 ServiceAccount 选择pods
    - kind: ServiceAccount
      name: website-service
      namespace: default
    - kind: ServiceAccount
      name: payments-service
      namespace: default
    

    上述实例定义了两个容许的访问控制:

  • 对于以 ServiceAccount 为 api-service 运行的 pods,容许来自以 ServiceAccount 为 prometheus 的 pods 访问 api-service-routes 定义下的 metrics 路由
  • 对于以 ServiceAccount 为 api-service 运行的 pods,容许来自以 ServiceAccount 为 website-service 和 payments-service 的 pods 访问 api-service-routes 定义下的 api 路由
  • 其中有部分字段为可选字段:

    • matches 字段:如果省略,则对 TrafficSpec 下定义的所有Route都生效
    • Port字段:如果省略,则表示所有端口

    SMI 流量访问控制的规则是默认都不容许访问,只有通过 TrafficTarget 指定的符合条件的流量才容许访问。而访问控制的执行,是明确要求在访问的服务器端(即Destination)强制执行,而是否在客户端(即Source)进行访问控制则由SMI的具体实现来决定。

    注意目前 Traffic Access Control 在定义 Source 和 Destination 时,都是通过 Selector 来定义的,我们细看这张图片:

    从访问控制的业务语义上看,上面两个 TrafficTarget 翻译出来就是:

    • 容许以 ServiceAccount prometheus 运行的服务访问以 ServiceAccount api-service 运行的服务的 metrics
    • 容许以 ServiceAccount web-service 和 payment-service 运行的服务访问以 ServiceAccount api-service 运行的服务的 api

    而不是我们平时熟悉的资源方式如"容许A服务访问B服务”,即访问控制中对服务的标示目前只能通过 ServiceAccount + Selector 来完成,而不是通过简单的服务Id或者名称来指定资源。请注意"容许以身份A运行的服务访问以身份B运行的服务” 和 “容许A服务访问B服务” 的细微差别。

    关于这一点,在 SMI 的文档的"Tradeoffs"中提到:

    Resources vs selectors - it would be possible to reference concrete resources such as a deployment instead of selecting across pods.

    资源 vs 选择器 - 可以引用具体资源(如deployment)而不是pod选择。

    Traffic Split

    Traffic Split 资源用来实现流量的百分比拆分,熟悉Istio的同学应该非常了解这个功能的强大。

    但是 SMI 中 Traffic Split 的配置方式和 Istio 有非常大的不同,比如下面的配置,要对 foobar 服务按照版本进行流量拆分,v1 和 v2 权重分别为 1 和 500m (1=1000m),在 Traffic Split 的配置中会出现多个 service:

    apiVersion: split.smi-spec.io/v1alpha1
    kind: TrafficSplit
    metadata:
      name: foobar-rollout
    spec:
      service: foobar # root service,客户端用这个服务名来连接目标应用
      backends: # root service 后面的服务,有自己的selectors, endpoints 和 configuration
      - service: foobar-v1
        weight: 1
      - service: foobar-v2
        weight: 500m
    
    • “foobar”:通过 spec.service 指定,这是 Traffic Split 的 root service,是要配置进行流量拆分的目标服务的FQDN,客户端用这个 service 进行通信,也就是说这个 root service 是暴露给客户端的。
    • “footer-v1” 和 “footer-v2”:这两个后端服务,是"隐藏"在 root service 后面的,通常是 root service 的子集,典型实现上是 selector 多加一个 version label 限制。

    这样,如果要对某个服务的两个子集进行流量拆分,典型如版本v1和版本v2,在 SMI 中就会有三个 k8s service 定义:

    资源 selector (label) 描述
    service foobar app: foobar root service
    service foobar-v1 app: foobar, version: v1 backend service
    service foobar-v2 app: foobar, version: v2 backend service

    这三个 service 和 pod 的关系如下图所示:

    我们来对比 Istio 中实现类似功能的方式,Istio中需要为准备进行流量拆分的服务定义 VirtualService,通过 subset 来区分不同的流量去向:

    apiVersion: networking.istio.io/v1alpha3
    kind: VirtualService
    metadata:
      name: foobar-route
    spec:
      hosts:
      - foobar
      http:
      - route:
        - destination:
            host: foobar
            subset: v2
          weight: 25
        - destination:
            host: foobar
            subset: v1
          weight: 75
    

    subset 在 DestinationRule 中定义,注意这里只涉及到 labels,服务(以host标志)并没有多个,还是 foobar:

    apiVersion: networking.istio.io/v1alpha3
    kind: DestinationRule
    metadata:
      name: foobar-destination
    spec:
      host: foobar
      subsets:
      - name: v1
        labels:
          version: v1
      - name: v2
        labels:
          version: v2
    

    在Istio 中,service 和 subset 的关系如下图所示:

    可以看到 SMI 中的 backend service 和 Istio 中的 subset 在功能上几乎是对等的。

    但是:SMI 和 Istio 的根本差异在于 Istio 中的 subset 是一个虚拟的抽象对象,在k8s中并没有实体资源。而在 SMI 中,backend service 是实实在在存在的 k8s service 资源。

    这里个人觉得有一个隐忧:在 SMI 中,为了进行流量拆分,就不得不为每个版本建立一个独立的k8s service,service 数量会比 Istio 方案多很多。

    另外就是在权重设置上的细微的差别,SMI 用的是相对weight(比如可以设置为1:2),而 Istio 是严格的百分比,而且要求总和为100。

    Traffic Metrics

    Traffic Metrics 资源提供通用集成点,工具可以通过访问这些集成点来抓取指标。Traffic Metrics 遵循 metrics.k8s.io 的模式,其即时指标可用于各种 CLI工具,HPA伸缩等。

    和大多数Metrics系统一致,SMI的Traffic Metrics 数据包含两个核心对象:

  • Resource:Metrics 和资源绑定,资源可以是 pod 和更高级别的概念如 namespaces, deployments 或者 services 。Pod是 Metrics 可以关联的最细粒度的资源,通过集合可以得到推断出其他。
  • Edge:表示流量来源或其目的地,描述力量的方向。
  • TrafficMetrics

    TrafficMetrics是核心资源,关联到资源,具有edge,延迟百分位数和请求量:

    apiVersion: metrics.smi-spec.io/v1alpha1
    kind: TrafficMetrics
    resource:
      name: foo-775b9cbd88-ntxsl
      namespace: foobar
      kind: Pod
    edge:
      direction: to
      resource:
        name: baz-577db7d977-lsk2q
        namespace: foobar
        kind: Pod
    timestamp: 2019-04-08T22:25:55Z
    window: 30s
    metrics:
    - name: p99_response_latency
      unit: seconds
      value: 10m
    - name: p90_response_latency
      unit: seconds
      value: 10m
    - name: p50_response_latency
      unit: seconds
      value: 10m
    - name: success_count
      value: 100
    - name: failure_count
      value: 100
    

    TrafficMetrics 的定义和使用暂时没看到有特殊之处。

    SMI规范总结

    从上面我们详细分析的 SMI 主要规范的定义看,Traffic Access Control / Traffic Specs / Traffic Split / Traffic Metrics 这四个目前定义好的规范,无论从功能还是从API设计上看,都缺乏亮点,至少与目前大家熟悉的 Istio API 相比,没有明显优势:

    • Traffic Specs 中 HTTPRouteGroup 只支持HTTP1.1,甚至不支持header,TCPRoute更是简陋到极致
    • Traffic Access Control 只支持 ServiceAccount
    • Traffic Split:需要为每个需要拆分的流量额外增加 k8s service
    • TrafficMetrics:平平无奇

    考虑到目前 SMI 还是第一个版本,处于项目早期阶段,不够成熟情有可原,我们更要关注的是其后续版本的演进,希望未来 SMI 可以成长为一个足够坚实而可用的标准API。

    SMI分析

    前面我们分析过 SMI 推出的背景,我归结为关键的两点:

  • 有利可图:Service Mesh技术被普遍看好,其长远价值被各大厂商认可
  • 有机可趁:作为市场领头羊的Google和Istio,表现疲软
  • 另外Google在Istio项目上,表现也有些令人费解:

  • 迟迟不进CNCF:早先还有未能发布1.0版本不满足CNCF要求的借口,而最近则感觉Google一直在避免讨论这个话题
  • Istio一直没有对 Service Mesh 技术进行标准化:只关注自己的 Istio API,对于标准化和基于标准化构建生态系统完全没兴趣。即便是统一数据平面API的标准化动作,也让人觉得是 Envoy 在推动。
  • 宣传和现实的差距:Istio 1.0 的 “Product Ready”,1.1 版本的"Enterprise Ready",很让人无语,我很期待 1.2 版本出来时的口号。
  • 架构设计的不务实:Mixer 是被嘲弄的重灾区,躲在Mixer身后的Pilot其实问题也一堆,而 Mixer v2 的进展则成为衡量 Istio 未来走向的风向标,是要成为工业级可用的坚实产品,还是继续摆弄优雅架构做花瓶?未来一年我们拭目以待。
  • 整个社区对Istio的不满情绪一直在酝酿和累积:这次 SMI 推出引发的轰动,很大程度是这种情绪的发泄——除了Google之外几乎所有的 Servic Mesh 的玩家都参与进来了,这就足够说明问题了。
  • 在过去两年,社区一直在期待Google和Istio,但是,这种期待在持续两年的失望之后,开始转向另外的方向:或许我们要更多的考虑Istio之外的选择了。

    Service Mesh 的战争,我们原以为会以Istio的胜利而迅速结束,但是现在看来,可能这场战争才刚刚开始。

    是重新认真审视这张图片的时候了:

    SMI 的推出,意义并不仅仅在于这个 Service Mesh 标准本身,而是带有另外一种特殊含义,就如陈胜吴广的揭竿而起,传递给四方的消息是:天下苦秦久矣!

    文章最后,希望未来有更多的优秀 Service Mesh 产品出现,也希望 Istio 可以知耻而后勇。Service Mesh 技术要想成功普及,一定需要一个或者多个强力产品的出现,而 SMI 的出现则为这场短期不能结束的纷争带来了一个理论可能:无论产品竞争如何激烈,都不影响上层生态,从而避免站队失败的风险和由此带来的犹豫与观望。这才是我个人觉得 SMI 推出的最大意义所在。

    参考资料

    • smi官方网站
    • smi-spec项目@github
    • Interoperability with the new Service Mesh Interface
    • 意外:Servicemesh Interface(SMI)
    • Hello Service Mesh Interface (SMI): A specification for service mesh interoperability: 来自微软的博客,比较权威,本文很多内容是援引自此文
    • Service Mesh Interface (SMI) and our Vision for the Community and Ecosystem:作者 Idit Levine,是初创公司 solo.io 的创始人兼CEO,本文同样大量援引此文的内容
    • Democratizing Service Mesh on Kubernetes: kubecon上宣布SMI的 keynote,作者 Gabe Monroy ,Microsoft Azure Container Compute的 Lead Product Manager,本文部分图片来自这个演讲的PPT
    • How the Service Mesh Interface (SMI) fits into the Kubernetes landscape: 介绍SMI和其他类似的kubernetes Interface 如 CNI、CRI、CSI等。
    • KubeCon EU 2019: Top 10 Takeaways: 来自网红 Daniel Bryant 的文章,包含对 SMI 和 Istio 的看法。
    • Service Mesh Wars with William Morgan:这是我见过的抨击Istio最为猛烈的一篇文章,极其火爆,又很有道理的样子
    • To Istio and beyond: Azure’s Service Mesh Interface: 有软文嫌疑,但是还是能看出微软推出SMI的基本想法
    • HashiCorp Consul supports Microsoft’s new Service Mesh Interface: 介绍 Consul Connect 对 SMI 的支持

    相关文章

    KubeSphere 部署向量数据库 Milvus 实战指南
    探索 Kubernetes 持久化存储之 Longhorn 初窥门径
    征服 Docker 镜像访问限制!KubeSphere v3.4.1 成功部署全攻略
    那些年在 Terraform 上吃到的糖和踩过的坑
    无需 Kubernetes 测试 Kubernetes 网络实现
    Kubernetes v1.31 中的移除和主要变更

    发布评论