分布式锁

分布式锁可以保证在分布式部署的应用集群中,同一个方法在同一时间只能被一台机器上的一个线程执行。

分布式锁的实现方式有:

  1. 数据库实现分布式锁:原理简单,性能较差

  2. Redis分布式锁:性能最好

  3. Zookeeper分布式锁:可靠性最好

一、数据库实现分布式锁

数据库实现分布式锁的思路,最简单的方式可能就是直接创建一张锁表,然后通过操作该表中的数据来实现了。具体实现方式有多种:

  1. 当我们要锁住某个方法或资源的时候,就在该表中增加一条记录;想要释放锁的时候,就删除这条记录。
  2. 可以基于乐观锁实现。
  3. 也可以利用数据库自带的排它锁实现。

由于需要连数据库,适用于对性能要求不高的场景如集群环境下的定时任务等。

参考:《基于数据库的分布式锁实现》https://blog.csdn.net/lmb55/article/details/78495629

二、Redis实现分布式锁

Redis实现分布式锁的思路主要是,获取锁的时候在redis中存储一个特定的key-value,释放锁的时候删除这个key-value。具体实现有多种方式。

1、【setnx】命令实现分布式锁(set if not exist)

一般思路是先用setnx命令设置一个指定的key-value来获取锁(同一业务逻辑获取的分布式锁对应的key固定,value随意),释放的时候用del命令删除这个key-value。这样做可能出现一个问题,如果释放锁(del key)之前系统挂了,redis中的这个key-value会一直存在,也就是会造成死锁。

因此可以用expire命令来给这个key-value加一个有效期,过一段时间即使不删除也自动失效。但由于加锁的时候,setnx和expire是分成两步来执行的,并没有原子性,如果执行expire之前系统挂了,也无法释放锁,造成死锁。当然执行expire需要依赖setnx的执行结果,如果setnx执行不成功(没抢到锁),是不应该执行expire的,所以也无法用redis事务的方式来保证这两个命令的原子性(如果用事务,及时setnx执行失败,也会继续执行expire)。

最终方案:可以通过setnx+getset命令来完美实现redis分布式锁,这种方案可以避免死锁,主要思想就是如果持有锁的线程没有及时释放锁,其他线程可以帮它释放锁。具体做法是:
(1)申请锁的时候用setnx设置key-value,key值固定,value=当前时间戳+过期时间,申请成功则获取锁成功
(2)如果申请锁失败(说明setnx执行失败,redis中已经有对应key了),用getset方法获取之前的值,判断锁是否已过期,如果过期了,判断设置的value

如下是用spring-data-redis实现分布式锁的例子:

public boolean lock(String redisKey,long expireMsecs) {
    try {
        long currentLockValue = System.currentTimeMillis() + expireMsecs + 1;
        boolean lockResult = redisTemplate.opsForValue().setIfAbsent(redisKey, currentLockValue);
        //成功获取得锁
        if(lockResult) {
            return true;
        }

        //如果redisKey存在,但已达到过期时间,则重新进入争抢
        Long lockValue = (Long)this.getRedisTemplate().opsForValue().get(redisKey);  //2019年04月08日12:00:10|000
        long currentTimeMillis = System.currentTimeMillis();  //2019年04月08日12:00:00|100

        if(lockValue != null && lockValue < currentTimeMillis) {
            
            Long oldLockValue = (Long)redisTemplate.opsForValue().getAndSet(redisKey, currentLockValue);  //2019年04月08日12:00:10|000
            //确保set的时候,没有其它线程进行getset操作
            if(oldLockValue != null && oldLockValue.equals(lockValue)) { 
                return true;
            }
        }
    }catch (Exception e) {
        logException(bizAction, "exception", getLockKey(), e);
    }
    return false;
}

public boolean unLock(){
    redisTemplate.delete(getLockKey());
}

当锁过期重新进入争抢的时候,比如之前redis中存的时间value是5,现在时间currentLockValue是10,所以现在的锁过期了。这时线程A和线程B同时(在同一毫秒)争抢锁,线程A先执行getset,获取到的oldLockValue=5,同时把当前时间currentLockValue 10放到缓存中,线程2再执行getset时,获取到的oldLockValue=10,这时比较线程A获取到的oldLockValue和之前的lockValue值一样,就表示A获取到了锁。
在这里插入图片描述
这种方案还有个小问题就是,需要依赖每个服务器节点的时间,因此需要保证每个服务器的时间一致。

2、用【set key value [EX seconds] [PX milliseconds] [NX|XX]】命令实现分布式锁。

redis2.8之后,扩展了set命令的参数,可以直接执行用一个命令来原子执行set和expire。

3、用lua脚本实现redis分布式锁

4、Redlock算法

三、用Zookeeper实现分布式锁

Zookeeper锁原理:通过Zookeeper上的数据节点来标识一个锁,例如/curator/lock。Zookddper分布式锁与Redis分布式锁相比相比,实现的稳定性更强,这是因为zookeeper的特性所致,在外界看来,zookeeper集群中每一个节点都是一致的。

1、Zookeeper实现分布式锁

下面描述使用zookeeper实现分布式锁的算法流程,假设锁空间的根节点为/curator/lock:

  1. 客户端连接zookeeper,并在/lock下创建临时的且有序的子节点,第一个客户端对应的子节点为/curator/lock/lock-0000000000,第二个为/curator/lock/lock-0000000001,以此类推。
  2. 客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁,否则监听/curator/lock的子节点变更消息,获得子节点变更通知后重复此步骤直至获得锁;
  3. 执行业务代码;
  4. 完成业务流程后,删除对应的子节点释放锁。

创建的临时节点能够保证在故障的情况下锁也能被释放,考虑这么个场景:假如客户端a当前创建的子节点为序号最小的节点,获得锁之后客户端所在机器宕机了,客户端没有主动删除子节点;如果创建的是永久的节点,那么这个锁永远不会释放,导致死锁;由于创建的是临时节点,客户端宕机后,过了一定时间zookeeper没有收到客户端的心跳包判断会话失效,将临时节点删除从而释放锁。

对于这个算法有个极大的优化点:假如当前有1000个节点在等待锁,如果获得锁的客户端释放锁时,这1000个客户端都会被唤醒,这种情况称为“羊群效应”;在这种羊群效应中,zookeeper需要通知1000个客户端,这会阻塞其他的操作,最好的情况应该只唤醒新的最小节点对应的客户端。应该怎么做呢?在设置事件监听时,每个客户端应该对刚好在它之前的子节点设置事件监听,例如子节点列表为/lock/lock-0000000000、/lock/lock-0000000001、/lock/lock-0000000002,序号为1的客户端监听序号为0的子节点删除消息,序号为2的监听序号为1的子节点删除消息。调整后的分布式锁算法为:

  1. 客户端连接zookeeper,并在/lock下创建临时的且有序的子节点,第一个客户端对应的子节点为/lock/lock-0000000000,第二个为/lock/lock-0000000001,以此类推;
  2. 客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁,否则监听刚好在自己之前一位的子节点删除消息,获得子节点变更通知后重复此步骤直至获得锁;
  3. 执行业务代码;
  4. 完成业务流程后,删除对应的子节点释放锁。

在这里插入图片描述
如下是用Curator实现分布式锁的例子:

public class ZookeeperDistributeLock{

    private static String lockPath = "/curator/lock";
    private static CuratorFramework client = CuratorFrameworkFactory.builder()
            .connectString("33.101.98.109:2181")
            .retryPolicy(new ExponentialBackoffRetry(1000, 3))
            .build();

    public static void main(String[] args) throws Exception {
        client.start();
        final InterProcessMutex lock = new InterProcessMutex(client, lockPath);
        final CountDownLatch countDownLatch = new CountDownLatch(1);
        final SimpleDateFormat simpleDateFormat = new SimpleDateFormat("HH:mm:ss|SSS");

        for (int i = 1; i <= 50; i++) {
            final int finalI = i;
            new Thread(new Runnable() {
                @Override
                public void run() {
                    try {
                        countDownLatch.await();
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                    }

                    try {
                        lock.acquire();
                    } catch (Exception e) {
                        e.printStackTrace();
                    }

                    String orderNo = simpleDateFormat.format(new Date());

                    try {
                        lock.release();
                    } catch (Exception e) {
                        e.printStackTrace();
                    }

                    System.out.println("生成的第" + (finalI) + "个订单号是:" + orderNo);
                }
            }).start();
        }
        System.out.println("1秒后开始并发生成订单号……");
        Thread.sleep(1000);
        countDownLatch.countDown();
    }
}

2、Zookeeper读写锁

也可以通过Zookeeper来获取分布式读写锁,在获取读写锁时,也是通过数据节点来表示一个锁。请求锁时,在锁节点(比如/lock)下创建格式为“/lock/类型-序号”的临时顺序节点,比如“R-0000001”、“W-0000002”、“R-0000003”:
在这里插入图片描述
获取读写锁流程分析:

  1. 在获取读锁时,客户端在/lock节点下创建/R-为前缀的临时顺序节点,比如“R-0000001”、“R-0000003”;在获取写锁时,客户端在/lock节点下创建/W-为前缀的临时顺序节点,比如“W-0000002”。
  2. 创建节点后,获取/lock下所有子节点,确定当前节点在所有子节点中的位置,并对最近的子节点设置Watcher监听。
  3. 对于读锁请求,如果没有比自己序号小的节点,或者所有比自己序号小的节点都是读请求,则成功获取到读锁,否则进入等待。
  4. 对于写请求,如果自己是序号最小的节点,则成功获取到写锁,否则进入等待。

Curator已经为我们实现了多种分布式锁:

InterProcessMutex:分布式可重入排它锁
InterProcessSemaphoreMutex:分布式排它锁
InterProcessReadWriteLock:分布式读写锁
InterProcessMultiLock:将多个锁作为单个实体管理的容器

总结

数据库分布式锁、Redis分布式锁、Zookeeper分布式锁的比较

  1. 理解的难易程度
    数据库>Redis>Zookeeper
  2. 实现的复杂程度
    Zookeeper>=Redis>数据库
  3. 性能高低
    Redis>Zookeeper>数据库
  4. 可靠性
    Zookeeper>Redis>数据库
Logo

权威|前沿|技术|干货|国内首个API全生命周期开发者社区

更多推荐