我是如何用 redis 分布式锁来解决线上历史业务问题的

近期发现,开发功能的时候发现了一个 mq 消费顺序错乱(历史遗留问题),导致业务异常的问题,看看我是如何解决的

问题抛出

首先,简单介绍一下情况:

线上 k8s 有多个 pod 会去消费 mq 中的消息,可是生产者发送的消息是期望一定要有序去消费,此时要表达的是,例如 生产者如果发送了 3 个通知消息,分别是

  • 1 系统已经在 / 组下面添加 a 组,你记得绑定策略 (例如 / 组绑定的是策略是:允许看视频类型的网站)
  • 2 系统已经在 /a 组下添加了 b 组, 你记得绑定策略(期望绑定的策略和他的父组策略一样)
  • 3 系统已经在 b 组下面添加 小 d 用户,你的绑定策略(期望绑定的策略和他的所在组一样)

此处,若有 3 个 pod 的分别拿到了上述 3 条消息,但是自身实际消费完毕的顺序可能是 先完成了 3 消息对应的业务逻辑,再是 2 消息 的业务逻辑,最后是 1 消息的业务逻辑

那么这个时候,小 d 用户就没有绑定上 允许看视频类型的网站 这一条策略,自然 b组 和 a 组也没有绑定上这条策略,这就和我们预期的完全不一致了

当然,实际情况对于单条单条的消息处理基本不会出现这种偏差,但是在批量处理的时候,就会出现实际业务处理顺序与期望不一致的情况,那么就是妥妥的线上问题了(小 d 上网的时候想看视频,可是一直看不了,于是就疯狂投诉。。。)

思考解决

对于这个问题如何解决呢?

我们知道,咱们使用 mq 的目的是为了做到去处理我们的异步逻辑,还能对流量进行削峰,服务间解耦

对于咱们的 A 服务,已经处理了关于添加用户的,添加组的逻辑,发送通知消息给到 B 服务的时候,B 服务自身的处理顺序,未按照既定的顺序真实按照顺序消费完毕,导致出现了业务问题

想法一

我们是期望 B 服务团队去添加批量接口,A 服务将需要通知的信息,排序好给到 B 服务,一个整包, B 服务的单个 pod 接收到这个大包,然后按照顺序处理消息即可,但是这个方式弊端比较明显

  • 当发送了多个批量大包消息的时候,B 服务如果自身处理不过来,也会导致类似的问题,无法根治
  • 需要 B 服务新增和修改的代码较多,肯定谈不下来
  • 而且对于绑定策略的服务来说,不仅仅是 B 服务,还有 C 服务,D 服务呢,他们都要改造… 这个想法就。。。

想法二

对于这一个业务,也不能去对整个架构大改,对于这些历史遗留问题,能少动就少动,兄弟们你们都懂的

于是便想出了使用 Redis 分布式锁来处理,对于一个部署在 k8s 中服务的多个 pod 去抢占,谁先抢到锁,那么就谁消费 mq 中的消息,没有抢到锁的 pod ,那就过一会再抢

当然,对于其他类型的业务是没有影响的

如何去实现这个想法呢,我们可以模拟一下

我是如何用 redis 分布式锁来解决线上历史业务问题的
  • 1 首先,我们设置一个 redis 的 key,例如 [服务名]_lockmq, 值的话咱们就任意设置,默认就用 服务名 做 value 吧,过期时间暂定 30 秒,有需求的可以调大
  • 2 如果设置成功,则处理成功之后的事情

    • 如果续期失败,则直接返回,退到第 1 步
    • 2.1.1 如果初始化失败,则直接返回,退到第 1 步
    • 2.1 初始化 mq 消费者,并开启协程进行消费

    • 2.2 对 redis 锁进行续期,此处咱们 10 秒续期一次

    • 3 若拿锁失败,则休息 10 秒再去拿锁

    这样来处理的话,我们就可以应对多个 pod 来消费同一类消息的时候,保证同时只有一个 pod 在处理 mq 中的消息了,当然如果正在处理消息的 pod 出现了异常,对于其他 pod ,最晚会在 40 秒之后拿到锁,对于大量的消息来说,这个还是可以容忍的

    对应的代码逻辑如下:

    • 简单连接 redis, redis 分布式锁的主逻辑如下

      • 连接 redis ,DB 默认为 0 号
    var rdb = redis.NewClient(&redis.Options{
       Addr:     "localhost:6379",
       Password: "123456",
       DB:       0,
    })

    func LockMq(svrName string) {
       key := fmt.Sprintf("%s_lockmq", svrName)
       // 尝试加锁
       var set bool
       for {
          set = redisLock(key, svrName, time.Second*30)
          if set {
             log.Println("redisLock success ")
             if err := afterLockSuccess(key); err != nil {
                // 如果此处有err ,自然是 mq 初始化失败
                log.Println("mq init error: ", err)
             }else{
                log.Println("redisLock expire failed ")
             }
             time.Sleep(time.Second * 10)
             continue
          }
          // afterLockFailed()
          log.Println("redisLock failed ")
          time.Sleep(time.Second * 10)
       }
    }
    • 基本的加锁实现

      • 设置 key , value , 过期时间为 30 秒
    func redisLock(key, value string, duration time.Duration) bool {
       set, err := rdb.SetNX(context.TODO(), key, value, duration).Result()
       if err != nil {
          log.Println("setnx failed, error: ", err)
          return false
       }
       return set
    }
    • 加锁成功之后,初始化 mq 客户端并进行消费,续期 redis 分布式锁
    func afterLockSuccess(key string) error {
       // 初始化需要做的内容或者句柄
       // xxx
       // 对于此处的初始化 mq 句柄失败才返回 err
       ch := make(chan struct{}, 1)
       go func() {
          // 模拟消费消息
          for {
             select {
             case <-ch:
                log.Println("expire failed,mq close")
                return
             default:
                log.Println("is consuming msg")
                time.Sleep(time.Second * 2)
             }
          }
       }()

       for {
          time.Sleep(time.Second*10)
          // 续期
          set, err := rdb.PExpire(context.TODO(), key, time.Second*30).Result()
          if err != nil {
             log.Println("PExpire error!! ", err)
             return nil
          }
          if !set {
             ch <- struct{}{}
             log.Println("PExpire failed!!")
             return nil
          }
          log.Println("PExpire success!! ")
       }

    }

    具体的测试直接调用 LockMq 函数即可

    func main(){
       go redislock.LockMq("helloworld")
       select{}
    }

    模拟启动多个 pod 去抢锁,抢到锁的执行业务,继续续期,抢不到锁的休息一会再接着抢

    程序 a 先启动,程序 b 后启动

    程序 a 日志如下:

    程序 a 起来之后,启动一段时间之后,kill 掉 程序 a

    我是如何用 redis 分布式锁来解决线上历史业务问题的

    程序 b 日志如下:

    程序 b 先是获取锁失败,过 30s 左右,程序 b 能正常获取到锁

    我是如何用 redis 分布式锁来解决线上历史业务问题的

    关于源码可以查看地址:https://github.com/qingconglaixueit/my_redis_demo

    感谢阅读,欢迎交流,点个赞,关注一波 再走吧

    欢迎点赞,关注,收藏

    朋友们,你的支持和鼓励,是我坚持分享,提高质量的动力

    我是如何用 redis 分布式锁来解决线上历史业务问题的

    好了,本次就到这里

    技术是开放的,我们的心态,更应是开放的。拥抱变化,向阳而生,努力向前行。

    我是阿兵云原生,欢迎点赞关注收藏,下次见~


    原文始发于微信公众号(阿兵云原生):我是如何用 redis 分布式锁来解决线上历史业务问题的

    版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

    文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/174702.html

    (0)
    小半的头像小半

    相关推荐

    发表回复

    登录后才能评论
    极客之音——专业性很强的中文编程技术网站,欢迎收藏到浏览器,订阅我们!