码迷,mamicode.com
首页 > 其他好文 > 详细

redis 从库数据同步失败——爬坑记

时间:2018-06-08 19:29:34      阅读:233      评论:0      收藏:0      [点我收藏+]

标签:redis主从同步异常

早上上班,发现redis的一个slave节点down了一个。对,没错,不是数据不同步那么简单,连redis服务进程都自动退出了。 场景:主从同步模式 master-->slave1 master-->slave2 master-->slave3 info状态: slave1,slave2 都是state=online,offset=5744884846,lag=1正常状态,slave3是state=send_bulk,offset=0,lag=0 1、重启redis操作 日志内容:WARNING overcommit_memory is set to 0 WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value WARNING you have Transparent Huge Pages (THP) support enabled in your kernel. a:第一个解决: 编辑/etc/sysctl.conf ,改vm.overcommit_memory=1,然后sysctl -p 使配置文件生效 echo 1 > /proc/sys/vm/overcommit_memory b:原因就是因为128太小了。执行echo 511 > /proc/sys/net/core/somaxconn

命令就把这个问题解决了。但是这个只是暂时的。如果想要永久解决,打开ietc/sysctl.conf
vim /etc/sysctl.conf
net.core.somaxconn= 1024
sysctl -p 永久生效
c: 需要解决THP的内存问题 :
echo never > /sys/kernel/mm/transparent_hugepage/enabled
重启日志报错:Short read or OOM loading DB. Unrecoverable error, aborting now.
处理:rm -rf dump.rdb 快照文件后重启

            重启redis slave3后出现同步的异常:
            master日志:Connection with slave 47.254.xx.xxx:6380 lost.
            slave3日志:I/O error trying to sync withMASTER: connection lost‘
            现象:slave3上每次同步完成rdb后会不断循环同步 即:从库周期性的在产生temp-rewriteaof-xxx.rdb文件 不断重复  文件为375M
            client-output-buffer-limit参数设置的问题,默认为256Mb 64MB 0 
            控制台设置增大限制:2G
            CONFIG SET client-output-buffer-limit "slave 2147483648 1073741824 300"
            配置文件redis.conf 
            client-output-buffer-limit slave 2048mb 1024mb 300
            (主从都配置一下)
            命令行设置生效,不需要重启。
            问题还是存在,每次同步完后不断同步
            最后解决:从slave2上将rdb文件拷贝到slave3的redis目录下重启,解决。
            具体原因。。。。。有待探索

redis 从库数据同步失败——爬坑记

标签:redis主从同步异常

原文地址:http://blog.51cto.com/soul455879510/2126560

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!