码迷,mamicode.com
首页 > 其他好文 > 详细

Redis备忘(二)

时间:2019-10-30 11:42:51      阅读:93      评论:0      收藏:0      [点我收藏+]

标签:关系   ash   链表   快照   磁盘   swa   服务端   监听   元素   

 内存回收: 

       有时候发现10g的Redis删掉1g的key,内存占用没啥变化,因为内存页分配,有的页面可能还存在key,整个页面不能回收。

 

 主从同步:

     CAP原理:一致性 可用性 分区容忍性

     redis主从是异步同步数据的,所以并不满足一致性要求(redis是最终一致性),主节点修改后,立即返回,即使主从断开,主节点依然正常服务,所以满足可用性。

     增量同步:主节点将指令记录在ringbuffer中,从节点执行同步,并向主节点反馈同步到的偏移量,网络环境不好时,buffer中的指令会覆盖,这时候需要快照同步。

     快照同步:主库bgsave将内存数据快照到磁盘,再传送到从节点,从加载后通知主节点继续进行增量同步。如果快照时间太长,增量同步的buffer还是会被覆盖,

        只能再次快照同步,有可能会快照同步死循环。 所以请务必配置合适的buffer大小。

        单个Redis的内存不宜过大,内存太大会导致 rdb 文件过大,主从全量同步延迟太长

    Redis无盘复制:

         主节点快照同步时,IO太大了,2.8以后可以快照同步时一边遍历内存,一边通过套接字将数据发送到从节点。

 

 集群方案:

   1.Sentinel:

            主从方案中没法自动切换主从。由此引入Sentinel集群

            Sentinel监控主从,如果主挂了自动选择一个最优的从作为主,其他从会和新的主建立主从关系

            客户端首先连接sentinel,通过其找到主节点地址

            主从切换后客户端会重连新的主,怎么实现:处理修改性命令的时候捕获了一个异常 ReadOnlyError,捕获到后将所有旧连接关闭,重连

 

   2.Codis:

           Codis无状态,可以部署多个节点。只是简单将key转发给服务端,将结果返回客户端。

           原理:将所有key划分成1024个slot,将客户端传过来的key做crc32后对1024取模决定存到哪个slot,slot对应到后面的多个Redis机器之一。 

                     Codis内部维护了Slot和背后机器的映射关系。不同Codis实例之间用etcd或zk同步槽位映射关系

                     通过Dashboard 可以修改槽位信息,当修改后,Codis会监听到变化并重新同步槽位关系

                     执行mget命令时,Codis会将key分散到多个机器查询,然后返回归并结果。

           集群扩容:如果查询一个正在迁移的key,Codis会强制该key立即迁移,然后去新机器上查询(所以value别太大)

  3.Redis Cluster:

         客户端向一个错误的节点发出了指令(即key所在槽位不归自己管理),该节点会让客户端重定向到另一个节点,客户端更新自己的槽位映射表

  4.  Redis Stream:

        和Kafka相比,内部没有partition, 如果想要分区,需要创建多个stream,手动分区

  5.监控:info, monitor , 可以通过监控异步同步数据失败次数,据此修改buffer大小

  6.分布式锁:

         主节点上申请了锁,但是突然主从切换了,锁还没来得及同步, 可以使用Redlock

         需要提供多个 Redis 实例,这些实例之前相互独立没有主从关系,加锁时,它会向过半节点发送setnx,过半set成功则加锁成功;

         还需要考虑出错重试、时钟漂移等很多细节问题,会造成性能下降。

  7.过期策略:

        同一时间太多的 key 过期,以至于忙不过来?线上指令出现卡顿?

        除了定时遍历(集中处理)之外,它还会使用惰性策略(零散处理)来删除过期的key

        1s 10次过期扫描,不会扫描整个过期字典,而是贪心策略:

               1.从过期字典中随机 20 个 key,删除过期的

               2.过期的 key 比率超过 1/4,重复步骤1

        如果大批的key同时过期还是可能线上请求造成卡顿,所以最好给过期时间设置一个随机范围。

 

  8. LRU:

       Redis支持maxmemory配置, 超过最大内存后可以有以下几种 maxmemory-policy: 

       1. noeviction不可写库

       2. volatile-lru:尝试淘汰设置了过期时间的key,优先淘汰最少使用的

       3. volatile-ttl:跟上面一样,不过剩余ttl小的先淘汰

       4. allkeys-lru:淘汰的是全体key,即没过期也会淘汰

       5. allkeys-random

       6. volatile-random

        Redis为实现近似 LRU 算法,它给每个key增加了最后一次被访问的时间戳。执行写操作时,发现内存超过maxmemory,执行一次LRU淘汰算法:

      随机采样出5个key,淘汰掉最旧的,如果还是超过maxmemory就继续随机采样淘汰。

 

   9. 删除优化:

       del删除的key包含元素过多,也会造成单线程卡顿,4.0引入了unlink 指令,对删除操作懒处理,丢给后台线程异步回收内存

  

   10. 数据安全:rename-command flushall ""

   11. 渐进式Rehash: dict结构内部包含两个hashtable,通常情况下只有一个hashtable是有值的; 大字典的扩容比较耗时间,Redis单线程很难承受

         迁移数据操作埋伏在当前字典的后续指令中(新的元素挂接到新的数组下面),还会在定时任务中对字典进行主动搬迁。

 

  12. 不要对Redis进行绑核,毕竟还有RDB,AOF这些异步操作

       建议设置swappiness

 

 

  13. 缓存使用的问题:

      缓存穿透:

         1. 返回空:缺点,需要更多内存,如果是攻击问题更严重,可以设置过期时间

         2. 布隆过滤器

         3. 高可用+降级

         4. 提前演练

     缓存无底洞:FaceBook添加更多memcached节点发现性能更差,因为如mget可能需要访问n多个节点(hash到不同节点)

     更多的节点不代表更高的性能。

     解决:客户端记住可以在哪个节点(其实hash一下就行),对每个节点的key打包好请求,然后多线程从各个节点mget或pipline

  14.优化:

      1. tcp-backlog

      2. swappiness

 

 

 

   京东订单的Redis实践:

     1. 先更新数据库,再更新缓存

     2. 数据一致性保证:循环5次直到成功,解决网络抖动造成失败的概率

                                     还不成功则启动线程扫描库,与缓存比较,更新缓存/或发送一条消息到mq,去更新

   网易的Redis技术分享:

      遍历时间事件链表中找到即将触发的时间,根据这个值去select里阻塞

Redis备忘(二)

标签:关系   ash   链表   快照   磁盘   swa   服务端   监听   元素   

原文地址:https://www.cnblogs.com/showing/p/11763850.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!