暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

Redis缓存设计与性能优化

卡布奇诺海晨 2023-07-31
59



缓存设计

1.1 缓存穿透


定义


  1. 缓存穿透是指查询一个根本不存在的数据, 缓存层和存储层都不会命中, 通常出于容错的考虑, 如果从存储层查不到数据则不写入缓存层。

  2. 缓存穿透将导致不存在的数据每次请求都要到存储层去查询, 失去了缓存保护后端存储的意义。

原因:造成缓存穿透的基本原因有两个:


  1. 自身业务代码或者数据出现问题


  1. 一些恶意攻击、 爬虫等造成大量空命中


解决方案:


1. 缓存空对象:就是如果在数据库中查询不到数据的话,设置空数据并设置过期时间


2. 布隆过滤器


对于恶意攻击,向服务器请求大量不存在的数据造成的缓存穿透,还可以用布隆过滤器先做一次过滤,对于不 存在的数据布隆过滤器一般都能够过滤掉,不让请求再往后端发送。当布隆过滤器说某个值存在时,这个值可 能不存在;当它说不存在时,那就肯定不存在。

布隆过滤器就是 一个大型的位数组和几个不一样的无偏 hash 函数 。所谓无偏就是能够把元素的 hash 值算得比较均匀。

向布隆过滤器中添加key时,会使用多个hash函数对key进行hash算得一个整数索引值然后对位数组长度进行取模运算得到一个位置,每个hash函数都会算得一个不同的位置。再把位数组的这几个位置都置为1就完成了add操作。

向布隆过滤器询问key是否存在时,跟add一样,也会把hash的几个位置都算出来,看看位数组中这几个位置是否都为1,只要有一个位为0,那么说明布隆过滤器中这个key不存在。如果都是1,这并不能说明这个key就一定存在,只是极有可能存在,因为这些位被置为1可能是因为其它的key存在所致。如果这个位数组比较稀疏,这个概率就会很大,如果这个位数组比较拥挤,这个概率就会降低。

这种方法适用于数据命中不高、数据相对固定、实时性低(通常是数据集较大)的应用场景,代码维护较为复杂,但是缓存空间占用很少。


布隆过滤器的使用


可以用redisson实现布隆过滤器,引入依赖:

    <dependency>


    <groupId>org.redisson</groupId>


    <artifactId>redisson</artifactId>


    <version>3.6.5</version>


    </dependency>

    伪代码示例:主要就是创建布隆过滤器,设置大小,不断添加数据,后续进行判断


    1. 使用布隆过滤器需要把所有数据提前放入布隆过滤器,并且在增加数据时也要往布隆过滤器里放

    2. 布隆过滤器肯定会比元素个数大很多,方便均匀分布,而且它是用位来存储,不需太担心使用空间


    注意:布隆过滤器不能删除数据,如果要删除得重新初始化数据。


    1.2 缓存失效(击穿)


    定义:


    由于大批量缓存在同一时间失效可能导致大量请求同时穿透缓存直达数据库,可能会造成数据库瞬间压力过大甚至挂掉,对于这种情况我们在批量增加缓存时最好将这一批数据的缓存过期时间设置为一个时间段内的不同时间。

    示例伪代码:


      String get(String key) {


      // 从缓存中获取数据


      String cacheValue = cache.get(key);


      // 缓存为空


      if (StringUtils.isBlank(cacheValue)) {


      // 从存储中获取


      String storageValue = storage.get(key);


      cache.set(key, storageValue);


      //设置一个过期时间(300到600之间的一个随机数)


      int expireTime = new Random().nextInt(300) + 300;


      if (storageValue == null) {


      cache.expire(key, expireTime);


      }


      return storageValue;


      } else {


      // 缓存非空


      return cacheValue;


      }


      }


      1.3 缓存雪崩


      定义:


      缓存雪崩指的是缓存层支撑不住或宕掉后, 流量会像奔逃的野牛一样, 打向后端存储层。

      由于缓存层承载着大量请求, 有效地保护了存储层, 但是如果缓存层由于某些原因不能提供服务(比如超大并发过来,缓存层支撑不住,或者由于缓存设计不好,类似大量请求访问bigkey,导致缓存能支撑的并发急剧下降), 于是大量请求都会打到存储层, 存储层的调用量会暴增, 造成存储层也会级联宕机的情况。


      就是缓存宕机,造成数据库宕机,致使整个服务挂掉


      预防和解决缓存雪崩问题, 可以从以下三个方面进行着手。

      1) 保证缓存层服务高可用性,比如使用Redis Sentinel或Redis Cluster。

      2) 依赖隔离组件为后端限流熔断并降级。比如使用Sentinel或Hystrix限流降级组件。比如服务降级,我们可以针对不同的数据采取不同的处理方式。当业务应用访问的是非核心数据(例如电商商

      品属性,用户信息等)时,暂时停止从缓存中查询这些数据(就是访问不到就访问不到,直接友好返回数据不存在,限流嘛,有些用户就查询不到信息也正常),而是直接返回预定义的默认降级信息、空值或是错误提示信息;当业务应用访问的是核心数据(例如电商商品库存)时,仍然允许查询缓存,如果缓存缺失,也可以继续通过数据库读取。也可以让用户排队,让用户慢慢等待,或者默认处理,之前看得京东访问不到直接跳到首页

      3) 提前演练。在项目上线前, 演练缓存层宕掉后, 应用以及后端的负载情况以及可能出现的问题, 在此基础上做一些预案设定。


      1.4 热点缓存key重建优化


      使用“缓存+过期时间”的策略既可以加速数据读写, 又保证数据的定期更新, 这种模式基本能够满足绝大部分需求。但是有两个问题如果同时出现, 可能就会对应用造成致命的危害:


      当前key是一个热点key(例如一个热门的娱乐新闻),并发量非常大。

      重建缓存不能在短时间完成, 可能是一个复杂计算, 例如复杂的SQL、 多次IO、 多个依赖等。

      在缓存失效的瞬间, 有大量线程来重建缓存, 造成后端负载加大, 甚至可能会让应用崩溃。要解决这个问题主要就是要避免大量线程同时重建缓存。我们可以利用互斥锁来解决,此方法只允许一个线程重建缓存, 其他线程等待重建缓存的线程执行完, 重新从缓存获取数据即可。


      示例伪代码:

        String get(String key) {


        // 从Redis中获取数据


        String value = redis.get(key);


        // 如果value为空, 则开始重构缓存


        if (value == null) {


        // 只允许一个线程重建缓存, 使用nx, 并设置过期时间ex


        String mutexKey = "mutext:key:" + key;


        if (redis.set(mutexKey, "1", "ex 180", "nx")) {


        // 从数据源获取数据


        value = db.get(key);


        // 回写Redis, 并设置过期时间


        redis.setex(key, timeout, value);


        // 删除key_mutex


        redis.delete(mutexKey);


        }// 其他线程休息50毫秒后重试


        else {


        Thread.sleep(50);


        get(key);


        }


        }


        return value;


        }


        1.5 缓存与数据库双写不一致


        在大并发下,同时操作数据库与缓存会存在数据不一致性问题


        1、双写不一致情况  


        就是你写完数据之后,加上缓存,如果有两个线程并发去更改数据,正常来讲谁先去更改数据库,谁就先去更改缓存,但是因为网络原因造成线程1写完之后还没来得及去更改缓存,线程2执行完更改数据库和缓存,这时线程1去更新缓存,这样就不对了

        2、读写并发不一致


        如果你不直接去更新缓存,先去删除缓存,等到get的时候再设置缓存的情况如下:


        下图的过程是这样,线程1先去更新数据库为10,删除缓存,然后线程3去获取数据,缓存中没有去查数据库是10,准备更新缓存的时候,线程2开始执行, 设置数据,删除缓存(此时也没有缓存),这个时候线程3再去设置缓存为10的话,这样也不对

        1、对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致,可以给缓存数据加上过期时间,每隔一段时间触发读的主动更新即可。

        2、就算并发很高,如果业务上能容忍短时间的缓存数据不一致(如商品名称,商品分类菜单等),缓存加上过期时间依然可以解决大部分业务对于缓存的要求。

        3、如果不能容忍缓存数据不一致,可以通过加读写锁保证并发读写或写写的时候按顺序排好队,读读的时候相当于无锁。

        4、也可以用阿里开源的canal通过监听数据库的binlog日志及时的去修改缓存,但是引入了新的中间件,增加了系统的复杂度。

        网上其他方案:一个是放到队列里面串行化执行,这个是影响效率,一个是延时双删,因为怕出现上面这种情况就延时删除,出现上面这种情况概率很低,但是你每次去请求都要延时也很影响效率,这边老师推荐的加分布式锁,用读写的分布式锁,不要用一把非常重的锁,查询数据的话加一把读锁,修改数据的话加一把写锁,大多数场景都是读多写少,这个读写锁必须是同一把锁


        redisson这边读写锁的实现原理:通过lua脚本,如下图


        如果你加的是读锁,设置model里面的值就是read,你加的是写锁,设置model里面的值是write,用的数据类型是hash,key就是你统一定义的字段,field里面的key-value就是model-read/write,大概过程:如果线程走进来,添加一把读锁,设置这个key,然后model设置为了read,后面线程进来再次访问,发现模式是read,就可以进来,继续查询数据,如果你更改数据,相应的会把model改为write模式,后面的线程进来发现模式是write的话,就阻塞在外面


        总结:


        以上我们针对的都是读多写少的情况加入缓存提高性能,如果写多读多的情况又不能容忍缓存数据不一致,那就没必要加缓存了,可以直接操作数据库。放入缓存的数据应该是对实时性、一致性要求不是很高的数据。切记不要为了用缓存,同时又要保证绝对的一致性做大量的过度设计和控制,增加系统复杂性!


        二、开发规范与性能优化


        2.1 键值设计


        2.2.1 key名设计

        1. 可读性和可管理性,以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表名:id,如:

          trade:order:1
          1. 简洁性,保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,如:

            user:{uid}:friends:messages:{mid} 简化为 u:{uid}:fr:m:{mid}
            1. 不要包含特殊字符,如空格、换行、单双引号以及其他转义字符


            2.2 Value设计


            2.2.1 不使用bigkey(防止网卡流量、慢查询)


            在Redis中,一个字符串最大512MB,一个二级数据结构(例如hash、list、set、zset)可以存储大约40亿个(2^32-1)个元素,但实际中如果下面两种情况,我就会认为它是bigkey。


            1. 字符串类型:它的big体现在单个value值很大,一般认为超过10KB就是bigkey。

            2. 非字符串类型:哈希、列表、集合、有序集合,它们的big体现在元素个数太多


            bigkey的危害:


            1.导致redis阻塞

            2.网络拥塞,bigkey也就意味着每次获取要产生的网络流量较大,假设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器会采用单机多实例的方式来部署,也就是说一个bigkey可能会对其他实例也造成影响,其后果不堪设想。

            3. 过期删除,有个bigkey,它安分守己(只执行简单的命令,例如hget、lpop、zscore等),但它设置了过期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除(lazyfree-lazy-expire yes),就会存在阻塞Redis的可能性。


            一般来说,string类型控制在10KB以内,hash、list、set、zset元素个数不要超过5000。非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞)


            bigkey的产生:


            一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几个例子:

            (1) 社交类:粉丝列表,如果某些明星或者大v不精心设计下,必是bigkey。

            (2) 统计类:例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。

            (3) 缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了图方便把相关数据都存一个key下,产生bigkey。


            如何优化bigkey?


            1. 拆 :big list:list1、list2、...listN


            big hash:可以讲数据分段存储,比如一个大的key,假设存了1百万的用户数据,可以拆分成

            200个key,每个key下面存放5000个用户数据

            2. 如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要

            hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理。


            【推荐】:选择适合的数据类型。


            例如:实体类型(要合理控制和使用数据结构,但也要注意节省内存和性能之间的平衡)


              1 set user:1:name tom


              2 set user:1:age 19


              3 set user:1:favor football


                hmset user:1 name tom age 19 favor football


                hash相比于string,如果设置相同数据的时候,占用的内存和效率都会好一些


                【推荐】:控制key的生命周期,redis不是垃圾桶。


                建议使用expire设置过期时间(条件允许可以打散过期时间,防止集中过期)。



                三、命令使用


                3.1 O(N)命令关注N的数量


                例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。


                3.2 禁用命令

                禁止线上使用keys、flushall、flushdb等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。


                3.3 合理使用select

                redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。


                3.4 使用批量操作提高效率

                原生命令:例如mget、mset。

                非原生命令:可以使用pipeline提高效率。


                但要注意控制一次批量操作的元素个数。


                注意两者不同:


                1. 原生命令是原子操作,pipeline是非原子操作。

                2. pipeline可以打包不同的命令,原生命令做不到

                3. pipeline需要客户端和服务端同时支持。


                3.5 减少事务使用

                Redis事务功能较弱,不建议过多使用,可以用lua替代


                四、客户端使用


                4.1 避免多个应用使用一个Redis实例

                对不相干的业务进行拆分,公共数据做服务化。


                4.2 使用带有连接池的数据库,可以有效控制连接,同时提高效率

                标准方式:

                  JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();


                  jedisPoolConfig.setMaxTotal(5);


                  jedisPoolConfig.setMaxIdle(2);


                  jedisPoolConfig.setTestOnBorrow(true);


                  JedisPool jedisPool = new JedisPool(jedisPoolConfig, "192.168.0.60", 6379, 3000, null);


                  Jedis jedis = null;


                  try {


                  jedis = jedisPool.getResource();


                  //具体的命令


                  jedis.executeCommand()


                  } catch (Exception e) {


                  logger.error("op key {} error: " + e.getMessage(), key, e);


                  } finally {


                  //注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。


                  if (jedis != null)


                  jedis.close();


                  }

                  主要就是前三个参数,其他用默认值就可以


                  优化建议:


                  1) maxTotal :最大连接数,早期的版本叫maxActive

                  实际上这个是一个很难回答的问题,考虑的因素比较多:

                  业务希望Redis并发量

                  客户端执行命令时间

                  Redis资源:例如 nodes(例如应用个数) * maxTotal 是不能超过redis的最大连接数 maxclients。

                  资源开销:例如虽然希望控制空闲连接(连接池此刻可马上使用的连接),但是不希望因为连接池的频繁释放创建连接造成不必靠开销。

                  以一个例子说明,假设:


                  一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为 1ms,一个连接的QPS大约是1000

                  业务期望的QPS是50000

                  那么理论上需要的资源池大小是50000 1000 = 50个。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。

                  但这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高

                  QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。

                  2) maxIdle和minIdle

                  maxIdle实际上才是业务需要的最大连接数,maxTotal是为了 给出余量 ,所以maxIdle不要设置过小,否则会有new Jedis(新连接)开销

                  连接池的最佳性能是maxTotal = maxIdle ,这样就避免连接池伸缩带来的性能干扰。但是如果

                  并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置

                  为按上面的业务期望QPS计算出来的理论连接数,maxTotal可以再放大一倍。

                  minIdle(最小空闲连接数),与其说是最小空闲连接数,不如说是" 至少需要保持的空闲连接 数 ",在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉。

                  如果系统启动完马上就会有很多的请求过来,那么可以给redis连接池做 预热 ,比如快速的创建一

                  些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升到minIdle的数量。

                  连接池预热示例代码:

                    List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());


                    for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {


                    Jedis jedis = null;


                    try {


                    jedis = pool.getResource();


                    minIdleJedisList.add(jedis);


                    jedis.ping();


                    } catch (Exception e) {


                    logger.error(e.getMessage(), e);


                    } finally {


                    //注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。。


                    //jedis.close();


                    }


                    }


                    //统一将预热的连接还回连接池


                    for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {


                    Jedis jedis = null;


                    try {


                    jedis = minIdleJedisList.get(i);


                    //将连接归还回连接池


                    jedis.close();


                    } catch (Exception e) {


                    logger.error(e.getMessage(), e);


                    } finally {


                    }


                    }


                    总之,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小。


                    4.3 添加熔断功能

                    高并发下建议客户端添加熔断功能,例如sentinel、hystrix


                    4.4 设置合理的密码

                    如有必要可以使用SSL加密访问


                    4.5 清除策略

                    Redis对于过期键有三种清除策略:


                    被动删除:当读/写一个已经过期的key时,会触发惰性删除策略,直接删除掉这个过期key

                    主动删除:由于惰性删除策略无法保证冷数据被及时删掉,所以Redis会定期(默认每100ms)主动淘汰一批已过期的key,这里的一批只是部分过期key,所以可能会出现部分key已经过期但还没有被清理掉的情况,导致内存并没有被释放

                    当前已用内存超过maxmemory限定时,触发主动清理策略

                    主动清理策略在Redis 4.0 之前一共实现了 6 种内存淘汰策略,在 4.0 之后,又增加了 2 种策略,总共8种,如下:


                    针对设置了过期时间的key做处理:

                    volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除。

                    volatile-random:就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。

                    volatile-lru:会使用 LRU 算法筛选设置了过期时间的键值对删除。

                    volatile-lfu:会使用 LFU 算法筛选设置了过期时间的键值对删除。


                    针对所有的key做处理:

                    allkeys-random:从所有键值对中随机选择并删除数据。

                    allkeys-lru:使用 LRU 算法在所有数据中进行筛选删除。

                    allkeys-lfu:使用 LFU 算法在所有数据中进行筛选删除。


                    不处理:

                    noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息"(error) OOM command not allowed when used memory",此时Redis只响应读操作。


                    五、redis管道与lua脚本


                    5.1 管道(Pipeline)

                    客户端可以一次性发送多个请求而不用等待服务器的响应,待所有命令都发送完后再一次性读取服务的响应,这样可以极大的降低多条命令执行的网络传输开销,管道执行多条命令的网络开销实际上只相当于一次命令执行的网络开销。需要注意到是用pipeline方式打包命令发送,redis必须在处理完所有命令前先缓存起所有命令的处理结果。打包的命令越多,缓存消耗内存也越多。所以并不是打包的命令越多越好。

                    pipeline中发送的每个command都会被server立即执行,如果执行失败,将会在此后的响应中得到信息;也就是pipeline并不是表达“所有command都一起成功”的语义,管道中前面命令失败,后面命令不会有影响,继续执行。


                    5.2 Lua脚本

                    Redis在2.6推出了脚本功能,允许开发者使用Lua语言编写脚本传到Redis中执行。使用脚本的好处如下:


                    减少网络开销:本来5次网络请求的操作,可以用一个请求完成,原先5次请求的逻辑放在redis服务器上完成。使用脚本,减少了网络往返时延。这点跟管道类似。

                    原子操作:Redis会将整个脚本作为一个整体执行,中间不会被其他命令插入。管道不是原子的,不过redis的批量操作命令(类似mset)是原子的。

                    替代redis的事务功能:redis自带的事务功能很鸡肋,而redis的lua脚本几乎实现了常规的事务功能,官方推荐如果要使用redis的事务功能可以用redis lua替代。

                    从Redis2.6.0版本开始,通过内置的Lua解释器,可以使用EVAL命令对Lua脚本进行求值。EVAL命令的格式如下:


                    EVAL script numkeys key [key ...] arg [arg ...] 

                    1

                    script参数是一段Lua脚本程序,它会被运行在Redis服务器上下文中,这段脚本不必(也不应该)定义为一个Lua函数。numkeys参数用于指定键名参数的个数。键名参数 key [key …] 从EVAL的第三个参数开始算起,表示在脚本中所用到的那些Redis键(key),这些键名参数可以在 Lua中通过全局变量KEYS数组,用1为基址的形式访问( KEYS[1] , KEYS[2] ,以此类推)。

                    在命令的最后,那些不是键名参数的附加参数 arg [arg …] ,可以在Lua中通过全局变量ARGV数组访问,访问的形式和KEYS变量类似( ARGV[1] 、 ARGV[2] ,诸如此类)。例如:


                      127.0.0.1:6379> eval "return {KEYS[1],KEYS[2],ARGV[1],ARGV[2]}" 2 key1 key2 first second


                      1) "key1"


                      2) "key2"


                      3) "first"


                      4) "second"



                      其中 “return {KEYS[1],KEYS[2],ARGV[1],ARGV[2]}” 是被求值的Lua脚本,数字2指定了键名参数的数量, key1和key2是键名参数,分别使用 KEYS[1] 和 KEYS[2] 访问,而最后的 first 和 second 则是附加参数,可以通过 ARGV[1] 和 ARGV[2] 访问它们。在 Lua 脚本中,可以使用redis.call()函数来执行Redis命令。

                        jedis.set("product_stock_10016", "15");  //初始化商品10016的库存15个


                        String script = " local count = redis.call('get', KEYS[1]) " +


                        " local a = tonumber(count) " +


                        " local b = tonumber(ARGV[1]) " +


                        " if a >= b then " +


                        " redis.call('set', KEYS[1], a-b) " +


                        " return 1 " +


                        " end " +


                        " return 0 ";


                        Object obj = jedis.eval(script, Arrays.asList("product_stock_10016"), Arrays.asList("10"));


                        System.out.println(obj);


                        注意,不要在Lua脚本中出现死循环和耗时的运算,否则redis会阻塞,将不接受其他的命令, 所以使用时要注意不能出现死循环、耗时的运算。redis是单进程、单线程执行脚本。管道不会阻塞redis。


                        文章转载自卡布奇诺海晨,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

                        评论