如何设计一款基于 MySQL 实现的 Message Queue

2023年 9月 3日 81.4k 0

EMS

Extend MySQL Stream;

一种基于 MySQL 实现的 stream 队列.

功能

  • 集群消费、广播消费
  • 自动重试、死信队列
  • 快速重置消息位点,快速回放消息,快速查询消息
  • 消息可基于磁盘积压、消息可快速清理
  • 监控 group 积压,topic 消息量排行,消息链路追踪,消息消费超时告警;
  • 读写性能 1200-3000 QPS 左右
  • 写入设计

    msg id 就是 topic 维度的自增 id,可对多个 topic 并发写入

    • 针对一个 topic,需要有物理 physics offset, 每次写入,topic 维度的 physics_offset 自增加一
      • 写入需要上锁吗? 看怎么写, 如果使用非原子的形式自增 id,比如数据的的方式,先查出最大 id,再加一,那么必须加锁
        • 如果使用 redis 自增特性实现, 为每个 topic 配置一个自增 key, 则可以避免加锁.
        • redis 实现虽然性能好, 如为配置aof,宕机则可能导致丢失数据, 此时,会出现 offset 重复异常, 过一会随着继续自增, 也就恢复了.
      • topic 维度的自增 id 如果使用 mysql 实现, 性能不堪受辱,因此,此处使用 redis 自增实现(可配置为 mysql 实现);
      • 经过测试,笔记本电脑,单 topic 20 并发写入,qps 在 1000-1500 左右(local mysql & local redis),基本满足业务需求。
      • 考虑到高可用性和业务场景,此处无法使用批量插入
    • 所有的 topic 和 msg 都写入的这一张表中,表数据定时清理,消费完的消息,可提前删除。
    • 注意,本方案写入性能瓶颈是 MySQL Server 的性能瓶颈。

    读取设计

  • 假设针对一个 topic,只有一个 consumer,只需循环读取,然后更新 offset 即可。
  • 但结合实际业务场景,这种基本不存在,所以,忽略这种场景。
  • 通常,一个 topic 有多个 consumer group(简称 tg), 一个 consumer group 有多个 client(jvm or thread)
  • 如果一个 topic + group(简称 tg),有多个 consumer,每个 consumer 有多个线程,读取和更新 offset 则会有并发问题, 如下图。
    • 这个 client id,我们将其设计为,ip + pid + uuid + thread id;
      • ip 和 pid 可帮助我们追溯问题
      • uuid 简单防重复
      • thread id,一种性能优化,下面细说。
    • 结合实际业务场景,且遵循 simple is better 原则,读取时,使用上锁的方式解决并发问题。锁的粒度就是 tg
    • 考虑到要实现基本的顺序读取和防止重复消费,多线程并发时,我们应当实现基于自增的形式读取 msg;每个 clientid 读取消息后,都会记录一个简单的log,并在 tg 维度增加一个 max offset
    • 每次读取消息时,每个 client 都需要去检查当前想要读取的 tg 是否已经有【其他 client】在操作 max offset。即,我们将锁的粒度缩小到了 max offset;
      • 整体原则是,一个 t + g 的 max offset,同时只能有一个 thread 操作(写和更新)
      • 如果有其他人在读取,则阻塞
      • 如果没有其他人在读取,则锁住这个 tg, 并批量拉取一定数量的消息 id,
        • 对这个 tg 维度的 max offset + n
        • 批量插入这个 tg + clientid offset log,表明这个消息被这个 clientid 读取了,同时也间接更新了 max offset(order by offset)
        • 释放锁🔐
        • 拉取刚刚读取的 msg id list 里面的消息体
        • 交给业务处理消息

    img.png

  • ack

  • 对于集群消息,如何保证在断电情况下,消息不丢失,使用数据库存储消息, 写入即不会丢失, 但消费时, 如果刚刚读进内存就立刻宕机,则需要在重启时恢复消息.
  • 每个 client get 到消息后,都需要记录 msg pid,consumer group,state(start、done,retry)为 start 状态
  • ack success,将 log update 为 done 状态
  • ack fail 后,将 log update 为 retry 状态,同时将消息存入重试队列
  • 这里需要上锁吗?其实是不需要的,因为更新的维度是 client id 的 log,不存在并发更新. 这里更新状态是表示这些消息已经处理结束了,否则无法判定宕机场景。
  • 对于 start 状态的消息,定时任务会去检查
  • 如果 client 还存活,超过 1 分钟(可配),则将其捞出,放进重试队列,并在 10s 进行第一次重试
  • 如果 client 还存活,则立刻将其捞出,放进重试队列,并在 10s 进行第一次重试
  • ack 是批量的,ack 失败,仅会导致重复消费。
  • 广播消息

  • 是否为广播消息由 topic 确定
  • 广播消息不需要上锁,每一个订阅该 topic 的 client 都会读取到该消息
  • 广播消息不需要 ack,不需要记录成功或失败或重试,仅需要内存里记录 offset
  • 推荐尽可能使用集群模式,使用集群模式模拟广播模式
  • client id

  • 只有 consumer 需要 client id
  • client id 由 ip pid uuid + thread id 组成, 可溯源.
  • client id 需要续约(5s),如果机器宕机,则会被自动清除,且他的 start 状态的消息会进入重试队列,交给同 group 的其他 client
  • client id 可以自己主动注销,注销前,自己内存的消息应当被优雅消费结束,一般来讲,kill -15 的 jvm 都会主动注销 client id;
  • 核心表设计

  • topic 表:记录topic 元信息
  • group 表:记录 group 订阅元信息
  • msg 表:msg总表,记录写入的信息,包含 body 和 topic 维度的自增 offset,类似 rocketmq commit log
  • 该表会被多个 consumer 消费的消息
  • 该表会被定制删除过期数据
  • retry msg 表,消费失败、超时的消息,会进入该表,并按阶梯定时消费
  • dead msg 表,消费重试 16(any config) 次的消息,会进入该表
  • topic_group_log 表:记录 consumer group client 的 msg 消费记录,包含 state(start、done,retry) 字段,可 ack
  • 该表的记录行数会非常多,单行数据较少,可自动删除 done 的记录
  • 锁🔐

    如上文所说,由于本方案未采用常见的多 queue 和多 partition 的设计,因此瓶颈在于上图提到的分布式锁的设计上,具体链路为 consumer group client 在集群消费时,
    为了让并发读取的 thread 拉取到的消息尽可能准确,使用上锁的方式来实现。

    总体看下来, 可以简单理解为, ems 失去了性能, 却拥有了所有.

    ps:一个 Java 插件化项目,github 地址:github.com/stateIs0/ex… 欢迎交流使用 star。

    相关文章

    JavaScript2024新功能:Object.groupBy、正则表达式v标志
    PHP trim 函数对多字节字符的使用和限制
    新函数 json_validate() 、randomizer 类扩展…20 个PHP 8.3 新特性全面解析
    使用HTMX为WordPress增效:如何在不使用复杂框架的情况下增强平台功能
    为React 19做准备:WordPress 6.6用户指南
    如何删除WordPress中的所有评论

    发布评论