胸怀万里世界, 放眼无限未来。这篇文章主要讲述高可用延迟队列设计与实现相关的知识,希望能为你提供帮助。
延迟队列:一种带有 延迟功能 的消息队列
- 延时 → 未来一个不确定的时间
- mq → 消费行为具有顺序性
背景列举一下我日常业务中可能存在的场景:
- 建立延时日程,需要提醒老师上课
- 延时推送 → 推送老师需要的公告以及作业
几个缺点:
- 每一个需要定时/延时任务的服务,都需要一个 msg table 做额外存储 → 存储与业务耦合
- 定时扫描 → 时间不好控制,可能会错过触发时间
- 对 msg table instance 是一个负担。反复有一个服务不断对数据库产生持续不断的压力
调度模型基本统一,不要做重复的业务逻辑
我们可以考虑将逻辑从具体的业务逻辑里面抽出来,变成一个公共的部分。
而这个调度模型,就是 延时队列 。
其实说白了:
延时队列模型,就是将未来执行的事件提前存储好,然后不断扫描这个存储,触发执行时间则执行对应的任务逻辑。
那么开源界是否已有现成的方案呢?答案是肯定的。Beanstalk (https://github.com/beanstalkd/beanstalkd) 它基本上已经满足以上需求
设计目的
- 消费行为 at least
- 高可用
- 实时性
- 支持消息删除
消费行为
这个概念取自 mq 。mq 中提供了消费投递的几个方向:
at most once
→ 至多一次,消息可能会丢,但不会重复at least once
→ 至少一次,消息肯定不会丢失,但可能重复exactly once
→ 有且只有一次,消息不丢失不重复,且只消费一次。
exactly once
尽可能是 producer + consumer 两端都保证。当 producer 没办法保证是,那 consumer 需要在消费前做一个去重,达到消费过一次不会重复消费,这个在延迟队列内部直接保证。最简单:使用 redis 的 setNX 达到 job id 的唯一消费
高可用
支持多实例部署。挂掉一个实例后,还有后备实例继续提供服务。
这个对外提供的 API 使用 cluster 模型,内部将多个 node 封装起来,多个 node 之间冗余存储。
为什么不使用 kafka?
考虑过类似基于 kafka/rocketmq 等消息队列作为存储的方案,最后从存储设计模型放弃了这类选择。
举个例子,假设以 Kafka 这种消息队列存储来实现延时功能,每个队列的时间都需要创建一个单独的 topic(如: Q1-1s, Q1-2s..)。这种设计在延时时间比较固定的场景下问题不太大,但如果是延时时间变化比较大会导致 topic 数目过多,会把磁盘从顺序读写会变成随机读写从导致性能衰减,同时也会带来其他类似重启或者恢复时间过长的问题。
- topic 过多 → 存储压力
- topic 存储的是现实时间,在调度时对不同时间 (topic) 的读取,顺序读 → 随机读
- 同理,写入的时候顺序写 → 随机写
文章图片
API 设计producer
producer.At(msg []byte, at time.Time)
producer.Delay(body []byte, delay time.Duration)
producer.Revoke(ids string)
consumer.Consume(consume handler)
文章图片
- service →
producer.At(msg []byte, at time.Time)
→ 插入延时job到 tube 中 - 定时触发 → job 状态更新为 ready
- consumer 获取到 ready job → 取出 job,开始消费;并更改状态为 reserved
- 执行传入 consumer 中的 handler 逻辑处理函数
生产端
- 开发中生产延时任务,只需确定任务执行时间
- 传入 At()
producer.At(msg []byte, at time.Time)
- 内部会自行计算时间差值,插入 tube
- 传入 At()
- 如果出现任务时间的修改,以及任务内容的修改
- 在生产时可能需要额外建立一个 logic_id → job_id 的关系表
- 查询到 job_id→
producer.Revoke(ids string)
,对其删除,然后重新插入
首先,框架层面保证了消费行为的
exactly once
,但是上层业务逻辑消费失败或者是出现网络问题,亦或者是各种各样的问题,导致消费失败,兜底交给业务开发做。这样做的原因:- 框架以及基础组件只保证 job 状态的流转正确性
- 框架消费端只保证消费行为的统一
- 延时任务在不同业务中行为不统一
- 强调任务的必达性,则消费失败时需要不断重试直到任务成功
- 强调任务的准时性,则消费失败时,对业务不敏感则可以选择丢弃
分为 cluster 和 node。cluster:
- cluster 内部将 consume handler 做了一层再封装
- 对 consume body 做hash,并使用此 hash 作为 redis 去重的key
- 如果存在,则不做处理,丢弃
- 消费 node 获取到 ready job;先执行 Reserve(TTR),预订此job,将执行该job进行逻辑处理
- 在 node 中 delete(job);然后再进行消费
- 如果失败,则上抛给业务层,做相应的兜底重试
文章图片
项目地址
go-queue
是基于 go-zero
实现的,go-zero
在 github 上 Used by
有300+,开源一年获得11k+ stars.- go-zero: https://github.com/zeromicro/go-zero
- go-stash: https://github.com/tal-tech/go-queue
微信交流群关注『微服务实践』公众号并点击 交流群 获取社区群二维码。
推荐阅读
- windows环境下如何安装Oracle 11g(超级详细-保姆)
- k8s nginx-ingress部署
- tigervnc远程桌面连接教程-linux
- 如何为Android应用程序创建WordPress REST API
- 如何仅为我的cpt”投资组合”创建单独的”存档小部件”()
- 如何在我的代码中的第3列之后创建新行
- 如何计算一个月前的作者帖子
- 如何通过WordPress主题正确实现基本的联系方式()
- 如何在functions.php中为自定义表单正确创建链接