分布式锁原理与实现(数据库、redis、zookeeper)
这里写自定义目录标题分布式锁一、数据库实现分布式锁二、Redis实现分布式锁三、用Zookeeper实现分布式锁总结分布式锁分布式锁可以保证在分布式部署的应用集群中,同一个方法在同一时间只能被一台机器上的一个线程执行。分布式锁的实现方式有:数据库实现分布式锁:原理简单,性能较差Redis分布式锁:性能最好Zookeeper分布式锁:可靠性最好一、数据库实现分布式锁数...
分布式锁原理与实现(数据库、redis、zookeeper)
分布式锁
分布式锁可以保证在分布式部署的应用集群中,同一个方法在同一时间只能被一台机器上的一个线程执行。
分布式锁的实现方式有:
-
数据库实现分布式锁:原理简单,性能较差
-
Redis分布式锁:性能最好
-
Zookeeper分布式锁:可靠性最好
一、数据库实现分布式锁
数据库实现分布式锁的思路,最简单的方式可能就是直接创建一张锁表,然后通过操作该表中的数据来实现了。具体实现方式有多种:
- 当我们要锁住某个方法或资源的时候,就在该表中增加一条记录;想要释放锁的时候,就删除这条记录。
- 可以基于乐观锁实现。
- 也可以利用数据库自带的排它锁实现。
由于需要连数据库,适用于对性能要求不高的场景如集群环境下的定时任务等。
参考:《基于数据库的分布式锁实现》https://blog.csdn.net/lmb55/article/details/78495629
二、Redis实现分布式锁
Redis实现分布式锁的思路主要是,获取锁的时候在redis中存储一个特定的key-value,释放锁的时候删除这个key-value。具体实现有多种方式。
1、【setnx】命令实现分布式锁(set if not exist)
一般思路是先用setnx命令设置一个指定的key-value来获取锁(同一业务逻辑获取的分布式锁对应的key固定,value随意),释放的时候用del命令删除这个key-value。这样做可能出现一个问题,如果释放锁(del key)之前系统挂了,redis中的这个key-value会一直存在,也就是会造成死锁。
因此可以用expire命令来给这个key-value加一个有效期,过一段时间即使不删除也自动失效。但由于加锁的时候,setnx和expire是分成两步来执行的,并没有原子性,如果执行expire之前系统挂了,也无法释放锁,造成死锁。当然执行expire需要依赖setnx的执行结果,如果setnx执行不成功(没抢到锁),是不应该执行expire的,所以也无法用redis事务的方式来保证这两个命令的原子性(如果用事务,及时setnx执行失败,也会继续执行expire)。
最终方案:可以通过setnx+getset命令来完美实现redis分布式锁,这种方案可以避免死锁,主要思想就是如果持有锁的线程没有及时释放锁,其他线程可以帮它释放锁。具体做法是:
(1)申请锁的时候用setnx设置key-value,key值固定,value=当前时间戳+过期时间,申请成功则获取锁成功
(2)如果申请锁失败(说明setnx执行失败,redis中已经有对应key了),用getset方法获取之前的值,判断锁是否已过期,如果过期了,判断设置的value
如下是用spring-data-redis实现分布式锁的例子:
public boolean lock(String redisKey,long expireMsecs) {
try {
long currentLockValue = System.currentTimeMillis() + expireMsecs + 1;
boolean lockResult = redisTemplate.opsForValue().setIfAbsent(redisKey, currentLockValue);
//成功获取得锁
if(lockResult) {
return true;
}
//如果redisKey存在,但已达到过期时间,则重新进入争抢
Long lockValue = (Long)this.getRedisTemplate().opsForValue().get(redisKey); //2019年04月08日12:00:10|000
long currentTimeMillis = System.currentTimeMillis(); //2019年04月08日12:00:00|100
if(lockValue != null && lockValue < currentTimeMillis) {
Long oldLockValue = (Long)redisTemplate.opsForValue().getAndSet(redisKey, currentLockValue); //2019年04月08日12:00:10|000
//确保set的时候,没有其它线程进行getset操作
if(oldLockValue != null && oldLockValue.equals(lockValue)) {
return true;
}
}
}catch (Exception e) {
logException(bizAction, "exception", getLockKey(), e);
}
return false;
}
public boolean unLock(){
redisTemplate.delete(getLockKey());
}
当锁过期重新进入争抢的时候,比如之前redis中存的时间value是5,现在时间currentLockValue是10,所以现在的锁过期了。这时线程A和线程B同时(在同一毫秒)争抢锁,线程A先执行getset,获取到的oldLockValue=5,同时把当前时间currentLockValue 10放到缓存中,线程2再执行getset时,获取到的oldLockValue=10,这时比较线程A获取到的oldLockValue和之前的lockValue值一样,就表示A获取到了锁。
这种方案还有个小问题就是,需要依赖每个服务器节点的时间,因此需要保证每个服务器的时间一致。
2、用【set key value [EX seconds] [PX milliseconds] [NX|XX]】命令实现分布式锁。
redis2.8之后,扩展了set命令的参数,可以直接执行用一个命令来原子执行set和expire。
3、用lua脚本实现redis分布式锁
4、Redlock算法
三、用Zookeeper实现分布式锁
Zookeeper锁原理:通过Zookeeper上的数据节点来标识一个锁,例如/curator/lock。Zookddper分布式锁与Redis分布式锁相比相比,实现的稳定性更强,这是因为zookeeper的特性所致,在外界看来,zookeeper集群中每一个节点都是一致的。
1、Zookeeper实现分布式锁
下面描述使用zookeeper实现分布式锁的算法流程,假设锁空间的根节点为/curator/lock:
- 客户端连接zookeeper,并在/lock下创建临时的且有序的子节点,第一个客户端对应的子节点为/curator/lock/lock-0000000000,第二个为/curator/lock/lock-0000000001,以此类推。
- 客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁,否则监听/curator/lock的子节点变更消息,获得子节点变更通知后重复此步骤直至获得锁;
- 执行业务代码;
- 完成业务流程后,删除对应的子节点释放锁。
创建的临时节点能够保证在故障的情况下锁也能被释放,考虑这么个场景:假如客户端a当前创建的子节点为序号最小的节点,获得锁之后客户端所在机器宕机了,客户端没有主动删除子节点;如果创建的是永久的节点,那么这个锁永远不会释放,导致死锁;由于创建的是临时节点,客户端宕机后,过了一定时间zookeeper没有收到客户端的心跳包判断会话失效,将临时节点删除从而释放锁。
对于这个算法有个极大的优化点:假如当前有1000个节点在等待锁,如果获得锁的客户端释放锁时,这1000个客户端都会被唤醒,这种情况称为“羊群效应”;在这种羊群效应中,zookeeper需要通知1000个客户端,这会阻塞其他的操作,最好的情况应该只唤醒新的最小节点对应的客户端。应该怎么做呢?在设置事件监听时,每个客户端应该对刚好在它之前的子节点设置事件监听,例如子节点列表为/lock/lock-0000000000、/lock/lock-0000000001、/lock/lock-0000000002,序号为1的客户端监听序号为0的子节点删除消息,序号为2的监听序号为1的子节点删除消息。调整后的分布式锁算法为:
- 客户端连接zookeeper,并在/lock下创建临时的且有序的子节点,第一个客户端对应的子节点为/lock/lock-0000000000,第二个为/lock/lock-0000000001,以此类推;
- 客户端获取/lock下的子节点列表,判断自己创建的子节点是否为当前子节点列表中序号最小的子节点,如果是则认为获得锁,否则监听刚好在自己之前一位的子节点删除消息,获得子节点变更通知后重复此步骤直至获得锁;
- 执行业务代码;
- 完成业务流程后,删除对应的子节点释放锁。
如下是用Curator实现分布式锁的例子:
public class ZookeeperDistributeLock{
private static String lockPath = "/curator/lock";
private static CuratorFramework client = CuratorFrameworkFactory.builder()
.connectString("33.101.98.109:2181")
.retryPolicy(new ExponentialBackoffRetry(1000, 3))
.build();
public static void main(String[] args) throws Exception {
client.start();
final InterProcessMutex lock = new InterProcessMutex(client, lockPath);
final CountDownLatch countDownLatch = new CountDownLatch(1);
final SimpleDateFormat simpleDateFormat = new SimpleDateFormat("HH:mm:ss|SSS");
for (int i = 1; i <= 50; i++) {
final int finalI = i;
new Thread(new Runnable() {
@Override
public void run() {
try {
countDownLatch.await();
} catch (InterruptedException e) {
e.printStackTrace();
}
try {
lock.acquire();
} catch (Exception e) {
e.printStackTrace();
}
String orderNo = simpleDateFormat.format(new Date());
try {
lock.release();
} catch (Exception e) {
e.printStackTrace();
}
System.out.println("生成的第" + (finalI) + "个订单号是:" + orderNo);
}
}).start();
}
System.out.println("1秒后开始并发生成订单号……");
Thread.sleep(1000);
countDownLatch.countDown();
}
}
2、Zookeeper读写锁
也可以通过Zookeeper来获取分布式读写锁,在获取读写锁时,也是通过数据节点来表示一个锁。请求锁时,在锁节点(比如/lock)下创建格式为“/lock/类型-序号”的临时顺序节点,比如“R-0000001”、“W-0000002”、“R-0000003”:
获取读写锁流程分析:
- 在获取读锁时,客户端在/lock节点下创建/R-为前缀的临时顺序节点,比如“R-0000001”、“R-0000003”;在获取写锁时,客户端在/lock节点下创建/W-为前缀的临时顺序节点,比如“W-0000002”。
- 创建节点后,获取/lock下所有子节点,确定当前节点在所有子节点中的位置,并对最近的子节点设置Watcher监听。
- 对于读锁请求,如果没有比自己序号小的节点,或者所有比自己序号小的节点都是读请求,则成功获取到读锁,否则进入等待。
- 对于写请求,如果自己是序号最小的节点,则成功获取到写锁,否则进入等待。
Curator已经为我们实现了多种分布式锁:
InterProcessMutex:分布式可重入排它锁
InterProcessSemaphoreMutex:分布式排它锁
InterProcessReadWriteLock:分布式读写锁
InterProcessMultiLock:将多个锁作为单个实体管理的容器
总结
数据库分布式锁、Redis分布式锁、Zookeeper分布式锁的比较
- 理解的难易程度
数据库>Redis>Zookeeper - 实现的复杂程度
Zookeeper>=Redis>数据库 - 性能高低
Redis>Zookeeper>数据库 - 可靠性
Zookeeper>Redis>数据库
更多推荐
所有评论(0)