标签:单位 文件句柄 场景 ror 基于 文件大小 内存数据库 清除 members
目录
Redis:REmote DIctionary Server(远程字典服务器)
是完全开源免费的,用C语言编写的,遵守BSD协议,是一个高性能的(key/value)分布式内存数据库,基于内存运行并支持持久化的NoSQL数据库,是当前最热门的NoSql数据库之一,也被人们称为数据结构服务器。
Redis 与其他 key - value 缓存产品有以下三个特点:
由于企业里面做Redis开发,99%都是Linux版的运用和安装,几乎不会涉及到Windows版,所以Windows版不作为讲解;
运行make命令时出现的错误:
如果make完成后继续执行make install;
redis-benchmark:服务启动起来后执行性能测试工具,可以在自己本子运行,看看自己本子性能如何;
redis-check-aof:修复有问题的aof文件;
redis-check-dump:修复有问题的dump.rdb文件;
redis-cli:客户端,操作入口;
redis-sentinel:redis集群使用;
redis-server:Redis服务器启动命令;
KEYS *:查看所有key;
DEL key:删除当前的key
DUMP key:序列化给定key,返回被序列化的值
EXISTS key:检查key是否存在
EXPIRE key second:为key设定过期时间
TTL key:查看还有多少秒过期,-1表示永不过期,-2表示已过期;
PERSIST key:移除key的过期时间,key将持久保存
KEY pattern:查询所有符号给定模式的key
RANDOM key:随机返回一个key
RANAME key newkey:修改key的名称
MOVE key db(id0-15):移动key至指定数据库中
TYPE key:返回key所储存的值的类型
string是redis最基本的类型,你可以理解成与Memcached一模一样的类型,一个key对应一个value;
string类型是二进制安全的。意思是redis的string可以包含任何数据。如jpg图片或者序列化的对象 ;
string类型是Redis最基本的数据类型,一个redis中字符串value最多可以是512M;
set/get/del/append/strlen;
Incr/decr/incrby/decrby:一定要是数字才能进行加减;
getrange/setrange:
getrange:获取指定区间范围内的值,类似between and的关系从零到负一表示全部;
setrange:设置指定区间范围内的值,格式是setrange key 位置值 具体值;
setex(set with expire) 键 秒值 值/setnx(set if not exist) 键
setex:设置带过期时间的key,动态设置 : setex 键 秒值 真实值
setnx:只有在 key 不存在时设置 key 的值:setnx 键 值
mset/mget/msetnx
mset:同时设置一个或多个 key-value 对。
mget:获取所有(一个或多个)给定 key 的值。
msetnx:同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在(如果存在key,则都不会操作,因为msetnx是原子性型操作)。
getset:将给定 key 的值设为 value ,并返回 key 的旧值(old value)。简单一句话,先get然后立即set。
String应用场景:
redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素导列表的头部(左边)或者尾部(右边)。它的底层实际是个链表。
lpush key value1 [value2]
rpush key value1 [value2]
lpushx key value:从左侧插入值,如果list不存在,则不操作
rpushx key value:从右侧插入值,如果list不存在,则不操作
llen key:获取列表长度
lindex key index:获取指定索引的元素
lrange key start stop:获取列表指定范围的元素
lpop key :从左侧移除第一个元素
prop key:移除列表最后一个元素
blpop key [key1] timeout:移除并获取列表第一个元素,如果列表没有元素会阻塞列表到等待超时或发现可弹出元素为止
brpop key [key1] timeout:移除并获取列表最后一个元素,如果列表没有元素会阻塞列表到等待超时或发现可弹出元素为止
ltrim key start stop :对列表进行修改,让列表只保留指定区间的元素,不在指定区间的元素就会被删除
lset key index value :指定索引的值
linsert key before|after world value:在列表元素前或则后插入元素
应用场景
性能总结
它是一个字符串链表,left、right都可以插入添加;
redis的hash 是一个键值对集合;
redis hash是一个string类型的field和value的映射表,hash特别适合用于存储对象;
hset/hget/hmset/hmget/hgetall/hdel,格式:
hset key field value:将哈希表 key 中的域 field 的值设为 value ;
hget key field:返回哈希表 key 中给定域 field 的值;
hmset key field value [field value ...]:同时将多个 field-value (域-值)对设置到哈希表 key 中;
hmget key field [field ...]:返回哈希表 key 中,一个或多个给定域的值;
hgetall key:返回哈希表 key 中,所有的域和值;
hdel key field [field ...]:删除哈希表 key 中的一个或多个指定域,不存在的域将被忽略;
hlen,返回哈希表 key 中域的数量(格式:hlen key);
hexists,查看哈希表 key 中,给定域 field 是否存在(格式:hexists key field);
hkeys/hvals,格式:
hkeys key:返回哈希表 key 中的所有域;
hvals key:返回哈希表 key 中所有域的值;
hincrby/hincrbyfloat,格式:
hincrby key field increment:为哈希表 key 中的域 field 的值加上增量 increment;
hincrbyfloat key field increment:为哈希表 key 中的域 field 加上浮点数增量 increment ;
hsetnx,将哈希表 key 中的域 field 的值设置为 value ,当且仅当域 field 不存在(格式:hsetnx key field value)
应用场景s
Hash的应用场景,通常用来存储一个用户信息的对象数据。
redis的set是string类型的无序集合。它是通过HashTable实现的。
sadd/smembers/sismember,格式:
sadd key member [member ...]
smembers key
sismember key member
scard:获取集合里面的元素个数(格式:scard key);
srem:删除集合中元素(格式:srem key member [member ...]);
srandmember,(格式:srandmember key [count])(不会修改set集合)
如果命令执行时,只提供了 key 参数,那么返回集合中的一个随机元素;
如果 count 为正数,且小于集合基数,那么命令返回一个包含 count 个元素的数组,数组中的元素各不相同。如果 count 大于等于集合基数,那么返回整个集合;
如果 count 为负数,那么命令返回一个数组,数组中的元素可能会重复出现多次,而数组的长度为 count 的绝对值;
spop,移除并返回集合中的一个随机元素(格式:spop key);
smove,(格式:smove source destination member)将 member 元素从 source 集合移动到 destination 集合;
差集:sdiff(格式:sdiff key [key ...])
交集:sinter(格式:sinter key [key ...])
并集:sunion(格式:sunion key [key ...])
应用场景
对两个集合间的数据[计算]进行交集、并集、差集运算
redis的zset 和 set 一样也是string类型元素的集合,且不允许重复的成员;
不同的是每个元素都会关联一个double类型的分数;
redis正是通过分数来为集合中的成员进行从小到大的排序。zset的成员是唯一的,但分数(score)却可以重复;
zadd/zrange,格式:
zadd key score member [[score member] [score member] ...]:将一个或多个 member 元素及其 score 值加入到有序集 key 当中;
zrange key start stop [WITHSCORES]:返回有序集 key 中,指定区间内的成员,其中成员的位置按 score 值递增(从小到大)来排列;
zrangebyscore:(格式:zrangebuscore key min max [WITHSCORES] [LIMIT offset count]),返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员;
zrem:移除有序集 key 中的一个或多个成员,不存在的成员将被忽略(格式:zrem key member [member ...]);
zcard/zcount /zrank/zscore,格式:
zcard key:返回有序集 key 的基数;
zcount key min max:返回有序集 key 中, score 值在 min 和 max 之间(默认包括 score 值等于 min 或 max )的成员的数量;
zrank key member:返回有序集 key 中成员 member 的排名。其中有序集成员按 score 值递增(从小到大)顺序排列,排名以 0 为底,也就是说, score 值最小的成员排名为 0 ;
zscore key member:返回有序集 key 中,成员 member 的 score 值;
zrevrank:返回有序集 key 中成员 member 的排名。其中有序集成员按 score 值递减(从大到小)排序,排名以 0 为底,也就是说, score 值最大的成员排名为 0 (格式:zrevrank key member);
zrevrange:返回有序集 key 中,指定区间内的成员,其中成员的位置按 score 值递减(从大到小)来排列(格式:zrevrange key start stop [WITHSCORES]);
zrevrangebyscore:返回有序集 key 中, score 值介于 max 和 min 之间(默认包括等于 max 或 min )的所有的成员。有序集成员按 score 值递减(从大到小)的次序排列(格式:zrevrangebyscore key max min [WITHSCORES] [LIMIT offset count]);
应用场景
可以通过includes包含,redis.conf可以作为总闸,包含其他;
daemonize no
Redis默认不是以守护进程的方式运行,可以通过该配置项修改,使用yes启用守护进程;
启用守护进程后,Redis会把pid写到一个pidfile中,在/var/run/redis.pid;
pidfile /var/run/redis.pid
当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定;
port 6379
指定Redis监听端口,默认端口为6379;
如果指定0端口,表示Redis不监听TCP连接;
tcp-backlog 511
设置tcp的backlog,backlog其实是一个连接队列,backlog队列总和=未完成三次握手队列 + 已经完成三次握手队列。在高并发环境下你需要一个高backlog值来避免慢客户端连接问题(注意Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值),所以需要增大somaxconn和tcp_max_syn_backlog两个值来达到想要的效果;
bind 127.0.0.1
绑定的主机地址;
你可以绑定单一接口,如果没有绑定,所有接口都会监听到来的连接;
timeout 0
当客户端闲置多长时间后关闭连接,如果指定为0,表示关闭该功能;
tcp-keepalive 0
TCP连接保活策略;
单位为秒,如果设置为0,则不会进行Keepalive检测,建议设置成60 ;
loglevel notice
指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning;
logfile ""
指定了记录日志的文件,空字符串的话,日志会打印到标准输出设备。后台运行的redis标准输出是/dev/null;
syslog-enabled no
是否把日志输出到syslog中;
syslog-ident redis
指定syslog里的日志标志
syslog-facility local0
指定syslog设备,值可以是USER或LOCAL0-LOCAL7;
databases 16
设置数据库的数量,默认数据库为0;
save
指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合;
save 900 1:900秒(15分钟)内有1个更改
save 300 10:300秒(5分钟)内有10个更改
save 60 10000:60秒(1分钟)内有10000个更改
stop-writes-on-bgsave-error yes
后台存储错误停止写;
rdbcompression yes
指定存储至本地数据库时是否压缩数据,默认为yes,Redis采用LZF压缩,如果为了节省CPU时间,可以关闭该选项,但会导致数据库文件变的巨大;
rdbchecksum yes
在存储快照后,还可以让redis使用CRC64算法来进行数据校验,但是这样做会增加大约10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能;
dbfilename dump.rdb
指定本地数据库文件名,默认值为dump.rdb;
dir ./
指定本地数据库存放目录(rdb、aof文件也会写在这个目录);
详细请看下文Redis的复制(Master | Slave);
requirepass foobared
设置Redis连接密码,如果配置了连接密码,客户端在连接Redis时需要通过auth password命令提供密码,默认关闭;
maxclients 10000
设置redis同时可以与多少个客户端进行连接。默认情况下为10000个客户端。当你无法设置进程文件句柄限制时,redis会设置为当前的文件句柄限制值减去32,因为redis会为自身内部处理逻辑留一些句柄出来。如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应;
maxmemory <bytes>
设置redis可以使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素
maxmemory-policy noeviction
数据淘汰策略,Reids 具体有 6 种淘汰策略:
(1)volatile-lru:使用LRU算法移除key,只对设置了过期时间的键;
(2)allkeys-lru:使用LRU算法移除key;
(3)volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键;
(4)allkeys-random:移除随机的key;
(5)volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key;
(6)noeviction:不进行移除。针对写操作,只是返回错误信息;
maxmemory-samples 5
设置样本数量,LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小,redis默认会检查这么多个key并选择其中LRU的那个;
appendonly no
指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失;因为redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no;
appendfilename "appendonly.aof"
指定更新日志文件名,默认为appendonly.aof;
appendfsync everysec
always:同步持久化,每次发生数据变更会被立即记录到磁盘 性能较差但数据完整性比较好;
everysec:出厂默认推荐,异步操作,每秒记录 如果一秒内宕机,有数据丢失;
no:让操作系统来决定何时同步,不能给服务器性能带来多大的提升,而且也会增加系统奔溃时数据丢失的数量;
no-appendfsync-on-rewrite no
重写时是否可以运用Appendfsync,用默认no即可,保证数据安全性;
auto-aof-rewrite-percentage 100
重写指定百分比,为0会禁用AOF自动重写特性;
auto-aof-rewrite-min-size 64mb
设置重写的基准值;
redis.conf 配置项说明如下:
1.Redis默认不是以守护进程的方式运行,可以通过该配置项修改,使用yes启用守护进程
daemonize yes
2.当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定
pidfile /var/run/redis.pid
3.指定Redis监听端口,默认端口为6379,作者在自己的一篇博文中解释了为什么选用6379作为默认端口,因为6379在手机按键上MERZ对应的号码,而MERZ取自意大利歌女Alessia Merz的名字
port 6379
4.绑定的主机地址
bind 127.0.0.1
5.当客户端闲置多长时间后关闭连接,如果指定为0,表示关闭该功能
timeout 300
6.指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为verbose
loglevel verbose
7.日志记录方式,默认为标准输出,如果配置Redis为守护进程方式运行,而这里又配置为日志记录方式为标准输出,则日志将会发送给/dev/null
logfile stdout
8.设置数据库的数量,默认数据库为0,可以使用SELECT 命令在连接上指定数据库id
databases 16
9.指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合
save seconds changes
Redis默认配置文件中提供了三个条件:
save 900 1
save 300 10
save 60 10000
分别表示900秒(15分钟)内有1个更改,300秒(5分钟)内有10个更改以及60秒内有10000个更改。
10.指定存储至本地数据库时是否压缩数据,默认为yes,Redis采用LZF压缩,如果为了节省CPU时间,可以关闭该选项,但会导致数据库文件变的巨大
rdbcompression yes
11.指定本地数据库文件名,默认值为dump.rdb
dbfilename dump.rdb
12.指定本地数据库存放目录
dir ./
13.设置当本机为slav服务时,设置master服务的IP地址及端口,在Redis启动时,它会自动从master进行数据同步
slaveof <masterip> <masterport>
14.当master服务设置了密码保护时,slav服务连接master的密码
masterauth <master-password>
15.设置Redis连接密码,如果配置了连接密码,客户端在连接Redis时需要通过AUTH <password>命令提供密码,默认关闭
requirepass foobared
16.设置同一时间最大客户端连接数,默认无限制,Redis可以同时打开的客户端连接数为Redis进程可以打开的最大文件描述符数,如果设置 maxclients 0,表示不作限制。当客户端连接数到达限制时,Redis会关闭新的连接并向客户端返回max number of clients reached错误信息
maxclients 128
17.指定Redis最大内存限制,Redis在启动时会把数据加载到内存中,达到最大内存后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理 后,仍然到达最大内存设置,将无法再进行写入操作,但仍然可以进行读取操作。Redis新的vm机制,会把Key存放内存,Value会存放在swap区
maxmemory <bytes>
18.指定是否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。因为 redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no
appendonly no
19.指定更新日志文件名,默认为appendonly.aof
appendfilename appendonly.aof
20.指定更新日志条件,共有3个可选值:
no:表示等操作系统进行数据缓存同步到磁盘(快)
always:表示每次更新操作后手动调用fsync()将数据写到磁盘(慢,安全)
everysec:表示每秒同步一次(折衷,默认值)
appendfsync everysec
21.指定是否启用虚拟内存机制,默认值为no,简单的介绍一下,VM机制将数据分页存放,由Redis将访问量较少的页即冷数据swap到磁盘上,访问多的页面由磁盘自动换出到内存中(在后面的文章我会仔细分析Redis的VM机制)
vm-enabled no
22.虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个Redis实例共享
vm-swap-file /tmp/redis.swap
23.将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(Redis的索引数据 就是keys),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在于磁盘。默认值为0
vm-max-memory 0
24.Redis swap文件分成了很多的page,一个对象可以保存在多个page上面,但一个page上不能被多个对象共享,vm-page-size是要根据存储的 数据大小来设定的,作者建议如果存储很多小对象,page大小最好设置为32或者64bytes;如果存储很大大对象,则可以使用更大的page,如果不 确定,就使用默认值
vm-page-size 32
25.设置swap文件中的page数量,由于页表(一种表示页面空闲或使用的bitmap)是在放在内存中的,,在磁盘上每8个pages将消耗1byte的内存。
vm-pages 134217728
26.设置访问swap文件的线程数,最好不要超过机器的核数,如果设置为0,那么所有对swap文件的操作都是串行的,可能会造成比较长时间的延迟。默认值为4
vm-max-threads 4
27.设置在向客户端应答时,是否把较小的包合并为一个包发送,默认为开启
glueoutputbuf yes
28.指定在超过一定的数量或者最大的元素超过某一临界值时,采用一种特殊的哈希算法
hash-max-zipmap-entries 64
hash-max-zipmap-value 512
29.指定是否激活重置哈希,默认为开启(后面在介绍Redis的哈希算法时具体介绍)
activerehashing yes
30.指定包含其它的配置文件,可以在同一主机上多个Redis实例之间使用同一份配置文件,而同时各个实例又拥有自己的特定配置文件
include /path/to/local.conf
在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里;
RDB保存的是dump.rdb文件;
Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失;
fork:复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等)数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程;
配置文件中默认的快照配置(冷拷贝后重新使用:可以cp dump.rdb dump_new.rdb);
使用命令save或者bgsave
save:save时只管保存,其它不管,全部阻塞;
bgsave:Redis会在后台异步进行快照操作,快照同时还可以响应客户端请求。可以通过lastsave命令获取最后一次成功执行快照的时间;
执行flushall命令,也会产生dump.rdb文件,但里面是空的,无意义;
将备份文件 (dump.rdb) 移动到 redis 安装目录并启动服务即可,通过config get dir可获取目录;
动态所有停止RDB保存规则的方法:redis-cli config set save "";
适合大规模的数据恢复;
对数据完整性和一致性要求不高;
在一定间隔时间做一次备份,所以如果redis意外宕掉的话,就会丢失最后一次快照后的所有修改;
fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑;
以日志的形式来记录每个写操作,将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作(AOF保存的是appendonly.aof文件);
AOF启动/修复/恢复
1.正常恢复
启动:修改默认的appendonly no,改为yes;
将有数据的aof文件复制一份保存到对应目录(目录通过config get dir命令获取);
恢复:重启redis然后重新加载;
2.异常恢复
启动:修改默认的appendonly no,改为yes;
备份被破坏的aof文件;
修复:使用redis-check-aof --fix命令进行修复;
恢复:重启redis然后重新加载;
1.rewrite介绍
AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制,当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩,只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof;
2.重写原理
AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),遍历新进程的内存中数据,每条记录有一条的Set语句。重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似;
3.触发机制
Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发;
每修改同步:appendfsync always 同步持久化,每次发生数据变更会被立即记录到磁盘 性能较差但数据完整性比较好;
每秒同步:appendfsync everysec 异步操作,每秒记录,如果一秒内宕机,有数据丢失;
不同步:appendfsync no 从不同步;
相同数据集的数据而言aof文件要远大于rdb文件,恢复速度慢于rdb;
aof运行效率要慢于rdb,每秒同步策略效率较好,不同步效率和rdb相同;
1.RDB持久化方式能够在指定的时间间隔能对你的数据进行快照存储;
2.AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大;
3.只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式;
4.同时开启两种持久化方式
在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整;
同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段。
5.性能建议
因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 900 1这条规则。
如果Enalbe AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了。代价一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上。默认超过原大小100%大小时重写可以改到适当的数值。
如果不Enable AOF ,仅靠Master-Slave Replication 实现高可用性也可以。能省掉一大笔IO也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个。新浪微博就选用了这种架构;
可以一次执行多个命令,本质是一组命令的集合。一个事务中的所有命令都会序列化,按顺序地串行化执行而不会被其它命令插入,不许加塞;
一个队列中,一次性、顺序性、排他性的执行一系列命令;
case1:正常执行 执行exec全部成功;
case2:放弃事务 执行discard;
case3:全体连坐 在向事物队列中添加命令的时候报错,然后执行exec会全部失败;
case4:冤头债主 在向事物队列中添加命令的时候没有报错,但在执行exec的时候某一条命令执行失败,只会影响这一个,其他的会执行成功,这种为部分成功;
case5:watch监控
Redis部分支持事务
悲观锁(Pessimistic Lock), 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。
传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。
乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。
CAS(Check And Set)
witch命令可以为 Redis 事务提供 check-and-set (CAS)行为,类似乐观锁。
被 witch的键会被监视,并会发觉这些键是否被改动过了。 如果有至少一个被监视的键在 exec执行之前被修改了,那么整个事务都会被取消,exec返回空多条批量回复(null multi-bulk reply)来表示事务已经失败。
开启:以multi开始一个事务;
入队:将多个命令入队到事务中,接到这些命令并不会立即执行,而是放到等待执行的事务队列里面;
执行:由exec命令触发事务;
1.单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断;
2.没有隔离级别的概念:队列中的命令没有提交之前都不会实际的被执行,因为事务提交前任何指令都不会被实际执行,也就不存在”事务内的查询要看到事务里的更新,在事务外查询不能看到”这个让人万分头痛的问题;
3.不保证原子性:redis同一个事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚;
行话:也就是我们所说的主从复制,主机数据更新后根据配置和策略,自动同步到备机的master/slaver机制,master以写为主,slave以读为主;
1.配从(库)不配主(库);
2.从库配置:执行命令slaveof 主库IP 主库端口:
每次与master断开之后,都需要重新连接,除非你配置进redis.conf文件;
执行命令info replication查看主从关系;
3.修改配置文件细节操作:
拷贝多个redis.conf文件;
开启daemonize yes;
修改pid文件名字;
修改指定端口;
修改log文件名字;
修改dump.rdb名字;
4.常用三招
一主多仆
一个master两个slave;
一些问题?
(1) 切入点问题?slave1、slave2是从头开始复制还是从切入点开始复制?
答:从头开始复制;
(2) 从机是否可以写?set可否?
答:从机不可以写,也就不能set;
(3) 主机shutdown后情况如何?从机是上位还是原地待命?
答:原地待命;
(4) 主机又回来了后,主机新增记录,从机还能否顺利复制?
答:可以;
(5) 其中一台从机宕掉后情况如何?恢复它能跟上主机吗?
答:不能,需要重新建立主从关系;
薪火相传
上一个Slave可以是下一个slave的Master,Slave同样可以接收其他slaves的连接和同步请求,那么该slave作为了链条中下一个的master,可以有效减轻master的写压力。
中途变更转向:会清除之前的数据,重新建立拷贝最新的。
反客为主
主机宕掉后,从机升级为主机:
选择一个从机手动执行slaveof no one命令变更为主机,其他从机与该主机建立主从关系。
master接到命令启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master将传送整个数据文件到slave,以完成一次完全同步
全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。slave第一次同步为全量复制。
增量复制:master继续将新的所有收集到的修改命令依次传给slave,完成同步
但是只要是重新连接master,第一次完全同步(全量复制)将被自动执行。
哨兵模式简介
反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库;
启动哨兵模式步骤:
1.自定义的/myredis目录下新建sentinel.conf文件,名字绝不能错;
2.配置哨兵,填写内容在sentinel.conf文件中配置:
sentinel monitor 被监控数据库名字(自己起个名字) 127.0.0.1 6379 1
上面最后一个数字1,表示主机挂掉后salve投票看让谁接替成为主机,得票数多的成为主机;
3.启动哨兵
执行命令:redis-sentinel /myredis/sentinel.conf (目录依照各自的实际情况配置,可能目录不同);
问题
如果之前的master重启回来,会不会双master冲突?
不会造成双冲突,之前的master会成为slave。
复制延时
由于所有的写操作都是先在Master上操作,然后同步更新到Slave上,所以从Master同步到Slave机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave机器数量的增加也会使这个问题更加严重。
标签:单位 文件句柄 场景 ror 基于 文件大小 内存数据库 清除 members
原文地址:https://www.cnblogs.com/fengqiang626/p/11631662.html