Java自学者论坛

 找回密码
 立即注册

手机号码,快捷登录

恭喜Java自学者论坛(https://www.javazxz.com)已经为数万Java学习者服务超过8年了!积累会员资料超过10000G+
成为本站VIP会员,下载本站10000G+会员资源,会员资料板块,购买链接:点击进入购买VIP会员

JAVA高级面试进阶训练营视频教程

Java架构师系统进阶VIP课程

分布式高可用全栈开发微服务教程Go语言视频零基础入门到精通Java架构师3期(课件+源码)
Java开发全终端实战租房项目视频教程SpringBoot2.X入门到高级使用教程大数据培训第六期全套视频教程深度学习(CNN RNN GAN)算法原理Java亿级流量电商系统视频教程
互联网架构师视频教程年薪50万Spark2.0从入门到精通年薪50万!人工智能学习路线教程年薪50万大数据入门到精通学习路线年薪50万机器学习入门到精通教程
仿小米商城类app和小程序视频教程深度学习数据分析基础到实战最新黑马javaEE2.1就业课程从 0到JVM实战高手教程MySQL入门到精通教程
查看: 551|回复: 0

Redis 缓存穿透,缓存击穿,缓存雪崩的解决方案分析

[复制链接]
  • TA的每日心情
    奋斗
    2024-11-24 15:47
  • 签到天数: 804 天

    [LV.10]以坛为家III

    2053

    主题

    2111

    帖子

    72万

    积分

    管理员

    Rank: 9Rank: 9Rank: 9

    积分
    726782
    发表于 2021-8-27 11:46:15 | 显示全部楼层 |阅读模式

    设计一个缓存系统,不得不要考虑的问题就是:缓存穿透、缓存击穿与失效时的雪崩效应。

    一.什么样的数据适合缓存?

    分析一个数据是否适合缓存,我们要从访问频率、读写比例、数据一致性等要求去分析. 
    这里写图片描述

    二.什么是缓存击穿

    在高并发下,多线程同时查询同一个资源,如果缓存中没有这个资源,那么这些线程都会去数据库查找,对数据库造成极大压力,缓存失去存在的意义.打个比方,数据库是人,缓存是防弹衣,子弹是线程,本来防弹衣是防止子弹打到人身上的,但是当防弹衣里面没有防弹的物质时,子弹就会穿过它打到人身上. 
    这里写图片描述

    三.缓存击穿的解决办法

    方案一

    后台刷新

    后台定义一个job(定时任务)专门主动更新缓存数据.比如,一个缓存中的数据过期时间是30分钟,那么job每隔29分钟定时刷新数据(将从数据库中查到的数据更新到缓存中).

    • 这种方案比较容易理解,但会增加系统复杂度。比较适合那些 key 相对固定,cache 粒度较大的业务,key 比较分散的则不太适合,实现起来也比较复杂。

    方案二

    检查更新

    将缓存key的过期时间(绝对时间)一起保存到缓存中(可以拼接,可以添加新字段,可以采用单独的key保存..不管用什么方式,只要两者建立好关联关系就行).在每次执行get操作后,都将get出来的缓存过期时间与当前系统时间做一个对比,如果缓存过期时间-当前系统时间<=1分钟(自定义的一个值),则主动更新缓存.这样就能保证缓存中的数据始终是最新的(和方案一一样,让数据不过期.)

    • 这种方案在特殊情况下也会有问题。假设缓存过期时间是12:00,而 11:59 
      到 12:00这 1 分钟时间里恰好没有 get 请求过来,又恰好请求都在 11:30 分的时 
      候高并发过来,那就悲剧了。这种情况比较极端,但并不是没有可能。因为“高 
      并发”也可能是阶段性在某个时间点爆发。

    方案三

    分级缓存

    采用 L1 (一级缓存)和 L2(二级缓存) 缓存方式,L1 缓存失效时间短,L2 缓存失效时间长。 请求优先从 L1 缓存获取数据,如果 L1缓存未命中则加锁,只有 1 个线程获取到锁,这个线程再从数据库中读取数据并将数据再更新到到 L1 缓存和 L2 缓存中,而其他线程依旧从 L2 缓存获取数据并返回。

    • 这种方式,主要是通过避免缓存同时失效并结合锁机制实现。所以,当数据更 
      新时,只能淘汰 L1 缓存,不能同时将 L1 和 L2 中的缓存同时淘汰。L2 缓存中 
      可能会存在脏数据,需要业务能够容忍这种短时间的不一致。而且,这种方案 
      可能会造成额外的缓存空间浪费。

    方案四

    加锁

    方法1
    1.  
      // 方法1:
       
    2.  
      public synchronized List<String> getData01() {
    3.  
      List<String> result = new ArrayList<String>();
    4.  
      // 从缓存读取数据
    5.  
      result = getDataFromCache();
    6.  
      if (result.isEmpty()) {
    7.  
      // 从数据库查询数据
    8.  
      result = getDataFromDB();
    9.  
      // 将查询到的数据写入缓存
    10.  
      setDataToCache(result);
    11.  
      }
    12.  
      return result;
    13.  
      }

     

    • 这种方式确实能够防止缓存失效时高并发到数据库,但是缓存没有失效的时候,在从缓存中拿数据时需要排队取锁,这必然会大大的降低了系统的吞吐量.
    方法2
    1.  
      // 方法2:
    2.  
      static Object lock = new Object();
    3.   public List<String> getData02() {
    4.  
      List<String> result = new ArrayList<String>();
    5.  
      // 从缓存读取数据
    6.  
      result = getDataFromCache();
    7.  
      if (result.isEmpty()) {
    8.  
      synchronized ( lock) {
    9.  
      // 从数据库查询数据
    10.  
      result = getDataFromDB();
    11.  
      // 将查询到的数据写入缓存
    12.  
      setDataToCache(result);
    13.  
      }
    14.  
      }
    15.  
      return result;
    16.  
      }
    • 这个方法在缓存命中的时候,系统的吞吐量不会受影响,但是当缓存失效时,请求还是会打到数据库,只不过不是高并发而是阻塞而已.但是,这样会造成用户体验不佳,并且还给数据库带来额外压力.
    方法3
    1.  
      //方法3
    2.  
      public List<String> getData03() {
    3.  
      List<String> result = new ArrayList<String>();
    4.  
      // 从缓存读取数据
    5.  
      result = getDataFromCache();
    6.  
      if (result.isEmpty()) {
    7.  
      synchronized (lock) {
    8.  
      //双重判断,第二个以及之后的请求不必去找数据库,直接命中缓存
    9.  
      // 查询缓存
    10.  
      result = getDataFromCache();
    11.  
      if (result.isEmpty()) {
    12.  
      // 从数据库查询数据
    13.  
      result = getDataFromDB();
    14.  
      // 将查询到的数据写入缓存
    15.  
      setDataToCache(result);
    16.  
      }
    17.  
      }
    18.  
      }
    19.  
      return result;
    20.  
      }

     

    双重判断虽然能够阻止高并发请求打到数据库,但是第二个以及之后的请求在命中缓存时,还是排队进行的.比如,当30个请求一起并发过来,在双重判断时,第一个请求去数据库查询并更新缓存数据,剩下的29个请求则是依次排队取缓存中取数据.请求排在后面的用户的体验会不爽.

    方法4
    1.  
      static Lock reenLock = new ReentrantLock();
    2.  public List<String> getData04() throws InterruptedException {
    3.  
      List<String> result = new ArrayList<String>();
    4.  
      // 从缓存读取数据
    5.  
      result = getDataFromCache();
    6.  
      if (result.isEmpty()) {
    7.  
      if (reenLock.tryLock()) {
    8.  
      try {
    9.  
      System. out.println("我拿到锁了,从DB获取数据库后写入缓存");
    10.  
      // 从数据库查询数据
    11.  
      result = getDataFromDB();
    12.  
      // 将查询到的数据写入缓存
    13.  
      setDataToCache(result);
    14.  
      } finally {
    15.  
      reenLock.unlock(); // 释放锁
    16.  
      }
    17.  } else {
    18.  
      result = getDataFromCache(); // 先查一下缓存
    19.  
      if (result.isEmpty()) {
    20.  
      System. out.println("我没拿到锁,缓存也没数据,先小憩一下");
    21.  
      Thread.sleep( 100);// 小憩一会儿
    22.  
      return getData04();// 重试
    23.  
      }
    24.  
      }
    25.  
      }
    26.  
      return result;
    27.  
      }
    • 最后使用互斥锁的方式来实现,可以有效避免前面几种问题.

    缓存穿透

    缓存穿透是指查询一个一定不存在的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。在流量大时,可能DB就挂掉了,要是有人利用不存在的key频繁攻击我们的应用,这就是漏洞。

    解决方案

    有很多种方法可以有效地解决缓存穿透问题,最常见的则是采用布隆过滤器,将所有可能存在的数据哈希到一个足够大的bitmap中,一个一定不存在的数据会被 这个bitmap拦截掉,从而避免了对底层存储系统的查询压力。另外也有一个更为简单粗暴的方法(我们采用的就是这种),如果一个查询返回的数据为空(不管是数 据不存在,还是系统故障),我们仍然把这个空结果进行缓存,但它的过期时间会很短,最长不超过五分钟。

    缓存雪崩

    缓存雪崩是指在我们设置缓存时采用了相同的过期时间,导致缓存在某一时刻同时失效,请求全部转发到DB,DB瞬时压力过重雪崩。

    解决方案

    缓存失效时的雪崩效应对底层系统的冲击非常可怕。大多数系统设计者考虑用加锁或者队列的方式保证缓存的单线 程(进程)写,从而避免失效时大量的并发请求落到底层存储系统上。这里分享一个简单方案就时讲缓存失效时间分散开,比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

    缓存击穿

    对于一些设置了过期时间的key,如果这些key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题,这个和缓存雪崩的区别在于这里针对某一key缓存,前者则是很多key。

    缓存在某个时间点过期的时候,恰好在这个时间点对这个Key有大量的并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

    解决方案

    1.使用互斥锁(mutex key)

    业界比较常用的做法,是使用mutex。简单地来说,就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db,而是先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX或者Memcache的ADD)去set一个mutex key,当操作返回成功时,再进行load db的操作并回设缓存;否则,就重试整个get缓存的方法。

    SETNX,是「SET if Not eXists」的缩写,也就是只有不存在的时候才设置,可以利用它来实现锁的效果。在redis2.6.1之前版本未实现setnx的过期时间,所以这里给出两种版本代码参考:

     

    1.  
      //2.6.1前单机版本锁
    2.  
      String get(String key) {
    3.  
      String value = redis.get(key);
    4.  
      if (value == null) {
    5.  
      if (redis.setnx(key_mutex, "1")) {
    6.  
      // 3 min timeout to avoid mutex holder crash
    7.  
      redis.expire(key_mutex, 3 * 60)
    8.  
      value = db.get(key);
    9.  
      redis.set(key, value);
    10.  
      redis.delete(key_mutex);
    11.  
      } else {
    12.  
      //其他线程休息50毫秒后重试
    13.  
      Thread.sleep( 50);
    14.  
      get(key);
    15.  
      }
    16.  
      }
    17.  
      }

    最新版本代码:

     

     

    1.  
      public String get(key) {
    2.  
      String value = redis.get(key);
    3.  
      if (value == null) { //代表缓存值过期
    4.  
      //设置3min的超时,防止del操作失败的时候,下次缓存过期一直不能load db
    5.  
      if (redis.setnx(key_mutex, 1, 3 * 60) == 1) { //代表设置成功
    6.  
      value = db.get(key);
    7.  
      redis.set(key, value, expire_secs);
    8.  
      redis.del(key_mutex);
    9.  
      } else { //这个时候代表同时候的其他线程已经load db并回设到缓存了,这时候重试获取缓存值即可
    10.  
      sleep( 50);
    11.  
      get(key); //重试
    12.  
      }
    13.  
      } else {
    14.  
      return value;
    15.  
      }
    16.  
      }

    memcache代码:

     

     

    1.  
      if (memcache.get(key) == null) {
    2.  
      // 3 min timeout to avoid mutex holder crash
    3.  
      if (memcache.add(key_mutex, 3 * 60 * 1000) == true) {
    4.  
      value = db.get(key);
    5.  
      memcache.set(key, value);
    6.  
      memcache.delete(key_mutex);
    7.  
      } else {
    8.  
      sleep( 50);
    9.  
      retry();
    10.  
      }
    11.  
      }

     

    2. "提前"使用互斥锁(mutex key):

     

    在value内部设置1个超时值(timeout1), timeout1比实际的memcache timeout(timeout2)小。当从cache读取到timeout1发现它已经过期时候,马上延长timeout1并重新设置到cache。然后再从数据库加载数据并设置到cache中。伪代码如下:

     

    1.  
      v = memcache.get(key);
    2.  
      if (v == null) {
    3.  
      if (memcache.add(key_mutex, 3 * 60 * 1000) == true) {
    4.  
      value = db.get(key);
    5.  
      memcache.set(key, value);
    6.  
      memcache.delete(key_mutex);
    7.  
      } else {
    8.  
      sleep( 50);
    9.  
      retry();
    10.  
      }
    11.  
      } else {
    12.  
      if (v.timeout <= now()) {
    13.  
      if (memcache.add(key_mutex, 3 * 60 * 1000) == true) {
    14.  
      // extend the timeout for other threads
    15.  
      v.timeout += 3 * 60 * 1000;
    16.  
      memcache.set(key, v, KEY_TIMEOUT * 2);
    17.  
       
    18.  
      // load the latest value from db
    19.  
      v = db.get(key);
    20.  
      v.timeout = KEY_TIMEOUT;
    21.  
      memcache.set(key, value, KEY_TIMEOUT * 2);
    22.  
      memcache.delete(key_mutex);
    23.  
      } else {
    24.  
      sleep( 50);
    25.  
      retry();
    26.  
      }
    27.  
      }
    28.  
      }

     

    3. "永远不过期":  

     

    这里的“永远不过期”包含两层意思:

    (1) 从redis上看,确实没有设置过期时间,这就保证了,不会出现热点key过期问题,也就是“物理”不过期。

    (2) 从功能上看,如果不过期,那不就成静态的了吗?所以我们把过期时间存在key对应的value里,如果发现要过期了,通过一个后台的异步线程进行缓存的构建,也就是“逻辑”过期

            从实战看,这种方法对于性能非常友好,唯一不足的就是构建缓存时候,其余线程(非构建缓存的线程)可能访问的是老数据,但是对于一般的互联网功能来说这个还是可以忍受。

     

    1.  
      String get(final String key) {
    2.  
      V v = redis.get(key);
    3.  
      String value = v.getValue();
    4.  
      long timeout = v.getTimeout();
    5.  
      if (v.timeout <= System.currentTimeMillis()) {
    6.  
      // 异步更新后台异常执行
    7.  
      threadPool.execute( new Runnable() {
    8.  
      public void run() {
    9.  
      String keyMutex = "mutex:" + key;
    10.  
      if (redis.setnx(keyMutex, "1")) {
    11.  
      // 3 min timeout to avoid mutex holder crash
    12.  
      redis.expire(keyMutex, 3 * 60);
    13.  
      String dbValue = db.get(key);
    14.  
      redis.set(key, dbValue);
    15.  
      redis.delete(keyMutex);
    16.  
      }
    17.  
      }
    18.  
      });
    19.  
      }
    20.  
      return value;
    21.  
      }

     

    4. 资源保护:

     

    采用netflix的hystrix,可以做资源的隔离保护主线程池,如果把这个应用到缓存的构建也未尝不可。

    四种解决方案:没有最佳只有最合适

     

    解决方案 优点 缺点
    简单分布式互斥锁(mutex key)

     1. 思路简单

    2. 保证一致性

    1. 代码复杂度增大

    2. 存在死锁的风险

    3. 存在线程池阻塞的风险

    “提前”使用互斥锁  1. 保证一致性 同上 
    不过期(本文)

    1. 异步构建缓存,不会阻塞线程池

    1. 不保证一致性。

    2. 代码复杂度增大(每个value都要维护一个timekey)。

    3. 占用一定的内存空间(每个value都要维护一个timekey)。

    资源隔离组件hystrix(本文)

    1. hystrix技术成熟,有效保证后端。

    2. hystrix监控强大。

     

     

    1. 部分访问存在降级策略。

     

     

    总结

     针对业务系统,永远都是具体情况具体分析,没有最好,只有最合适。

    最后,对于缓存系统常见的缓存满了和数据丢失问题,需要根据具体业务分析,通常我们采用LRU策略处理溢出,Redis的RDB和AOF持久化策略来保证一定情况下的数据安全。

    参考文档: https://blog.csdn.net/zeb_perfect/article/details/54135506

    哎...今天够累的,签到来了1...
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|手机版|小黑屋|Java自学者论坛 ( 声明:本站文章及资料整理自互联网,用于Java自学者交流学习使用,对资料版权不负任何法律责任,若有侵权请及时联系客服屏蔽删除 )

    GMT+8, 2024-12-22 12:13 , Processed in 0.083879 second(s), 29 queries .

    Powered by Discuz! X3.4

    Copyright © 2001-2021, Tencent Cloud.

    快速回复 返回顶部 返回列表