码迷,mamicode.com
首页 > 数据库 > 详细

Redis数据库 02事务| 持久化| 主从复制| 集群

时间:2019-01-30 21:42:14      阅读:268      评论:0      收藏:0      [点我收藏+]

标签:ado   支持   高效   creat   功能   备份   doc   div   恢复   

 

1、 Redis事务

Redis不支持事务,此事务不是关系型数据库中的事务;

  •   Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。
  •   Redis事务的主要作用就是串联多个命令防止别的命令插队;

 

Multi(组队阶段)、Exec、discard

  •   从输入Multi命令开始,输入的命令都会依次进入命令队列中(开始组队),但不会执行,至到输入Exec后,Redis会将之前的命令队列中的命令依次执行。
  • 组队的过程中可以通过discard来放弃组队。 

 技术分享图片

  • 事务的错误处理
  • 组队阶段中某个命令出现了报告错误,执行时整个的所有队列会都会被取消
  • 如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚

 

127.0.0.1:6379> multi
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3
(error) ERR wrong number of arguments for set command  ##在组队阶段就错误了!
127.0.0.1:6379> exec  #开始执行队列中的命令,会回滚,都不会执行成功!!!
(error) EXECABORT Transaction discarded because of previous errors.
127.0.0.1:6379> keys *  ##回滚了,一个都没set成功!!
(empty list or set)
127.0.0.1:6379> 
=========================================
127.0.0.1:6379> multi
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> incr k2   ##执行的时候才能发现它是错误的组队的时候不知道的
QUEUED
127.0.0.1:6379> set k3 v3 #组队成功!
QUEUED
127.0.0.1:6379> exec   ##执行队列中的命令,发现有一个错误了就跳过!!
1) OK
2) OK
3) (error) ERR value is not an integer or out of range #incr k2失败了
4) OK  ##跳过了第三个命令;
127.0.0.1:6379> keys *
1) "k3"
2) "k2"
3) "k1"

 

 

 

 技术分享图片

事务冲突的问题:

  三个请求(账户中一共10000元)
    一个请求想给金额减8000
    一个请求想给金额减5000
    一个请求想给金额减1000

如果没有事务,三个请求一个个执行,最后结果是-4000!!

有了事务:

  • 悲观锁(Pessimistic Lock), 关系型数据库用的就是悲观锁; 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block(阻塞)直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。

把并发的串行,第一个请求先抢到就先执行时,会把账户住其他请求就不能执行了,执行完之后打开锁账户变成2000了然后再锁上;执行第二个请求....发现5000>2000就不执行了。

  • 乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis就是利用这种check-and-set机制实现事务的。

没有锁,只是有一个版本号;3个请求都可以看到账户的余额,可以同时执行,而悲观锁只能一个个的执行;第一个请求先抢到就先执行它,执行完之后变成2000,他把账户版本号改变成1.1版本了;虽然第二个请求也可以执行但发现版本号变了,也是执行不了的,版本不一致了;如果第三个请求看到的是1.1版本,他就可以执行了1000 < 2000;

Redis就用的乐观锁;

 

  • WATCH key [key ...]
    • 在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。
127.0.0.1:6379> get balance
"10000"
127.0.0.1:6379> watch balance 
OK
127.0.0.1:6379> incrby balance 1000  ##事务执行之前balance被改动了,则事务被打断,执行不了事务了就;
(integer) 11000
127.0.0.1:6379> multi
OK
127.0.0.1:6379> incrby balance 222
QUEUED
127.0.0.1:6379> exec
(nil)
127.0.0.1:6379> get balance
"11000"

 

 技术分享图片

 

  • unwatch
    • 取消 WATCH 命令对所有 key 的监视。
    • 如果在执行 WATCH 命令之后, EXEC 命令或 DISCARD 命令先被执行了的话,那么就不需要再执行 UNWATCH 了。

 技术分享图片

 两个同时watch balance这个账户;第一个执行完了把版本号改变了,第二个看到的版本号跟之前不一样,就不能执行了。

  • 单独的隔离操作
    • 事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断;但是如果其他客户端把key值改变了,则事务照常进行,按照最新的key值执行事务中的操作!!! 
  • 没有隔离级别的概念
    • 队列中的命令没有提交之前都不会实际的被执行,因为事务提交前任何指令都不会被实际执行,也就不存在“事务内的查询要看到事务里的更新,在事务外查询不能看到”这个让人万分头痛的问题 
  • 不保证原子性
    • Redis同一个事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚 

2、 Redis的持久化

  • Redis 提供了2个不同形式的持久化方式。
  • RDB (Redis DataBase)
  • AOF (Append Of File)

① RDB

  • 指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。

 备份的进行:

  Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。

  RDB的缺点是最后一次持久化后的数据可能丢失。(还没到那个持久化时间点,万一停电了,它就丢失了。)

  在Linux程序中,fork()会产生一个和父进程完全相同的子进程,但子进程在此后多会exec系统调用,出于效率考虑,Linux中引入了“写时复制技术”,一般情况父进程和子进程会共用同一段物理内存(在持久化之前),只有进程空间的各段的内容要发生变化时(当子进程开始写,开始持久化时,会单独给子进程分配一块内存;),才会将父进程的内容复制一份给子进程。

rdb的备份
  先通过config get dir  查询rdb文件的目录
  将*.rdb的文件拷贝到别的地方
[root@hadoop myredis]# cp dump.rdb dump.rdb.bank  备份dump.rdb文件;
-rw-r--r--. 1 root root   100 1月  30 18:30 dump.rdb
-rw-r--r--. 1 root root    76 1月  10 14:31 dump.rdb.bank ##备份的文件
rdb的恢复
  关闭Redis :shutdown
   先把备份的文件拷贝到工作目录下
[root@hadoop myredis]# cp dump.rdb.bank dump.rdb
  cp:是否覆盖"dump.rdb"? y    将备份文件把目标文件dump.rdb给覆盖掉级rdb的恢复;
  启动Redis, 备份数据会直接加载

 

 rdb的保存的文件

  • 在redis.conf中配置文件名称,默认为dump.rdb (数据都存在这里边)
  • rdb文件的保存路径,也可以修改。默认为Redis启动时命令行所在的目录下  /root/myredis (默认在当前目录下生成(你在哪个目录下运行它就会在哪里生成,会很乱);可在配置文件redis.conf 中修改;)
#把dump.rdb文件保存路径修改为:
dir /root/myredis

  rdb在什么时候持久化:(自动保存策略--配置文件 | 手动保存策略shutdown、bgsave)

    配置文件(vim redis.conf )中的自动保存策略

      每分钟如果又10000个变化就保存一次;每5min如果有10个变化了就保存一次;每15min如果有1个变化了就保存一次;

 技术分享图片

技术分享图片

    手动保存快照(用bgsave

  • 命令save: 只管保存,其它不管,全部阻塞(直接调用rdbSave函数,它会占用阻塞Redis主进程直到保存完成为止,在阻塞期间Redis服务器不能处理客户端的任何请求)bgsave (fork一个子进程,子进程负责调用 rdbSave ,并在保存完成之后向主进程发送信号,通知保存已完成。因为 rdbSave 在子进程被调用,所以 Redis 服务器在  BGSAVE 执行期间仍然可以继续处理客户端的请求)
  • save vs bgsave  
shutdown & bgsave  自己的保存策略,都会持久化;;; 还有一种是配置文件中见上;

cp
dump.rdb dump.rdb.bak 把dump.rdb文件复制一份为为dump.rdb.bak flushdb shutdown

 

stop-writes-on-bgsave-error yes
  当Redis无法写入磁盘的话(如文件太大硬盘中内存满了,就通知你),直接关掉Redis的写操作
rdbcompression yes  默认的
  进行rdb保存时,将文件压缩
rdbchecksum yes 
  在存储快照后,还可以让Redis使用CRC64算法来进行数据校验,但是这样做会增加大约10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能

rdb的优点 ms
  节省磁盘空间
  恢复速度快
缺点
  虽然Redis在fork时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能。
  在备份周期在一定间隔时间做一次备份,所以如果Redis意外down掉的话,就会丢失最后一次快照后的所有修改。

 

 技术分享图片

 

② AOF 

  • 以日志的形式来记录每个写操作,将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,Redis启动之初会读取该文件重新构建数据,换言之,Redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。
  • AOF默认不开启,需要手动在配置文件中配置vim redis.conf 

 技术分享图片

 

  • 可以在redis.conf 中配置文件名称,默认为 appendonly.aof

技术分享图片

 

 

  •  AOF文件的保存路径,同RDB的路径一致。
  • AOF和RDB同时开启,redis听谁的? 系统默认取AOF的数据
-rw-r--r--. 1 root root   141 1月  30 20:19 appendonly.aof #有3个key,如果执行flushdb了,要先把它给删除了不然恢复的时候会把库给删了;
-rw-r--r--. 1 root root    76 1月  30 20:18 dump.rdb
-rw-r--r--. 1 root root   153 1月  30 19:34 dump.rdb.bank #有10个key

[root@hadoop myredis]# cp dump.rdb.bank  dump.rdb
cp:是否覆盖"dump.rdb"? y 
[root@hadoop myredis]# redis-server redis.conf 
[root@hadoop myredis]# redis-cli
127.0.0.1:6379> keys *
1) "k3"
2) "k2"
3) "k1"
听AOF的;RDB有可能缺失,但AOF不会有缺失;AOF默认是关闭,如果同时开启默认是听AOF的;

AOF文件故障备份

  • AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载。

AOF文件故障恢复

  • AOF文件的保存路径,同RDB的路径一致。
  • 如遇到AOF文件损坏,可通过 redis-check-aof  --fix  appendonly.aof   进行恢复
[root@hadoop myredis]# redis-check-aof --fix appendonly.aof 
0x              6e: Expected prefix a, got: *
AOF analyzed: size=172, ok_up_to=110, diff=62
This will shrink the AOF from 172 bytes, with 62 bytes, to 110 bytes
Continue? [y/N]: y
Successfully truncated AOF

 

AOF同步频率设置(redis.conf配置文件)

  • 始终同步,每次Redis的写入都会立刻记入日志
  • 每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失。
  • 把不主动进行同步,把同步时机交给操作系统

技术分享图片

Rewrite

  •  AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制,当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩,只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof。

  Redis如何实现重写?

  • 如果超过了规定大小的命令,它就会它你有重复的命令给简写;大小就减少了;
  • AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),遍历新进程的内存中数据,每条记录有一条的Set语句。重写aof文件的操作,并没有读取旧的aof文件,而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点类似。

  何时重写:

  • 重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定Redis要满足一定条件才会进行重写。

技术分享图片

  • 系统载入时或者上次重写完毕时,Redis会记录此时AOF大小,设为base_size,如果Redis的AOF当前大小>= base_size +base_size*100% (默认)且当前大小>=64mb(默认)的情况下,Redis会对AOF进行重写。

AOF的优点

  • 备份机制更稳健,丢失数据概率更低。
  • 可读的日志文本,通过操作AOF稳健,可以处理误操作。

AOF的缺点

  • 比起RDB占用更多的磁盘空间。
  • 恢复备份速度要慢。
  • 每次读写都同步的话,有一定的性能压力。
  • 存在个别Bug,造成恢复不能。

技术分享图片

用哪个好

  • 官方推荐两个都启用。
  • 如果对数据不敏感,可以选单独用RDB。
  • 不建议单独用 AOF,因为可能会出现Bug。
  • 如果只是做纯内存缓存,可以都不用。

 

3、 Redis的主从复制

  • 主从复制,就是主机数据更新后根据配置和策略,自动同步到备机的master/slaver机制,Master以写为主,Slave以读为主

用处

  • 读写分离,性能扩展
  • 容灾快速恢复

 技术分享图片一山不容二虎,不能有两个主机;

 

配从(服务器)不配主(服务器)

  • 拷贝多个redis.conf文件include
  • 开启daemonize yes
  • Pid文件名字pidfile
  • 指定端口port
  • Log文件名字
  • Dump.rdb名字dbfilename
  • Appendonly 关掉或者换名字
:%S/6379/6381  进行快速替换
[root@kris myredis]# cat redis6379.conf ---> include /root/myredis/redis.conf pidfile /var/run/redis_6379.pid port 6379 dbfilename dump6379.rdb [root@kris myredis]# cat redis6381.conf include /root/myredis/redis.conf pidfile "/var/run/redis_6381.pid" port 6381 dbfilename "dump6381.rdb" slave-priority 1

 

  • info replication    打印主从复制的相关信息

 

  • slaveof  <ip>  <port>     成为某个实例的从服务器

 

一主二仆模式演示

1 切入点问题?slave1、slave2是从头开始复制还是从切入点开始复制?比如从k4进来,那之前的123是否也可以复制

2 从机是否可以写?set可否?

3 主机shutdown后情况如何?从机是上位还是原地待命

4 主机又回来了后,主机新增记录,从机还能否顺利复制?可以,但之前的记录没有了

5 其中一台从机down后情况如何?依照原有它能跟上大部队吗?

   可以,重新slaveof “127.0.0.1” “6380“ ,都可以获得master的信息

复制原理

  • 每次从机联通后,都会给主机发送sync指令
  • 主机立刻进行存盘操作,发送RDB文件,给从机
  • 从机收到RDB文件后,进行全盘加载
  • 之后每次主机的写操作,都会立刻发送给从机,从机执行相同的命令

薪火相传 

  • 上一个slave可以是下一个slave的Master,slave同样可以接收其他slaves的连接和同步请求,那么该slave作为了链条中下一个的master, 可以有效减轻master的写压力,去中心化降低风险。
  • 用 slaveof  <ip>  <port>
  • 中途变更转向:会清除之前的数据,重新建立拷贝最新的
  • 风险是一旦某个slave宕机,后面的slave都没法备份

 

反客为主 

  • 当一个master宕机后,后面的slave可以立刻升为master,其后面的slave不用做任何修改。。
  • 当它成为master时,原来的主的slave还依照原本的master; 若主回来了都是可以获得原来的key的
  • 用 slaveof  no one  将从机变为主机。

 

哨兵模式(sentinel)

  • 反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库.

  配置哨兵

  • 调整为一主二仆模式
  • 自定义的/myredis目录下新建sentinel.conf文件
  • 在配置文件中填写内容:

        sentinel  monitor  mymaster  127.0.0.1  6379  1

  • 其中mymaster为监控对象起的服务器名称, 1 为 至少有多少个哨兵同意迁移的数量。
  • 执行redis-sentinel  /myredis/sentinel.conf  启动哨兵

故障恢复

  • 技术分享图片

 

4、 redis的集群

  • 容量不够,redis如何进行扩容?
  • 并发写操作, redis如何分摊?
  • Redis 集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N。
  • Redis 集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。

 

1、安装ruby环境

  • 能上网:

    rm -rf *.rdb安装之前先把它们删除掉

      执行yum install ruby

      执行yum install rubygems

2、拷贝redis-3.2.0.gem到/opt目录下

       alt+p

3、执行在opt目录下执行  gem install --local redis-3.2.0.gem

vim redis6379.conf:

include /root/myredis/redis.conf

pidfile /var/run/redis_6379.pid

port 6379

dbfilename dump6379.rdb

cluster-enabled yes

cluster-config-file  nodes-6379.conf

cluster-node-timeout 15000

cp redis6379.conf redis6380.conf

 

制作6个实例,6379,6380,6381,6389,6390,6391

  • 拷贝多个redis.conf文件
  • 开启daemonize yes
  • Pid文件名字
  • 指定端口
  • Log文件名字
  • Dump.rdb名字
  • Appendonly 关掉或者换名字

安装redis cluster配置修改

  • cluster-enabled yes    打开集群模式
  • cluster-config-file  nodes-6379.conf  设定节点配置文件名
  • cluster-node-timeout 15000   设定节点失联时间,超过该时间(毫秒),集群自动进行主从切换。

将六个节点合成一个集群

  • 先把6个服务启动了: [root@kris myredis]# redis-server redis6379.conf
  • 组合之前,请确保所有redis实例启动后,nodes-xxxx.conf文件都生成正常。

 

 技术分享图片

 

合体:

  • cd  /opt/redis-3.2.5/src
  • ./redis-trib.rb create --replicas 1 192.168.1.100:6379 192.168.1.100:6380 192.168.1.100:6381 192.168.1.100:6389 192.168.1.100:6390 192.168.1.100:6391
  • 此处不要用127.0.0.1, 请用真实IP地址
  • 通过 cluster nodes 命令查看集群信息

 技术分享图片

 

redis cluster 如何分配这六个节点?

  • 一个集群至少要有三个主节点
  • 选项 --replicas 1 表示我们希望为集群中的每个主节点创建一个从节点。
  • 分配原则尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上。

什么是slots

  • 一个 Redis 集群包含 16384 个插槽(hash slot), 数据库中的每个键都属于这 16384 个插槽的其中一个, 集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 。
  • 集群中的每个节点负责处理一部分插槽。 举个例子, 如果一个集群可以有主节点, 其中:

        节点 A 负责处理 0 号至 5500 号插槽。

        节点 B 负责处理 5501 号至 11000 号插槽。

        节点 C 负责处理 11001 号至 16383 号插槽。

在集群中录入值

  • 在redis-cli每次录入、查询键值,redis都会计算出该key应该送往的插槽,如果不是该客户端对应服务器的插槽,redis会报错,并告知应前往的redis实例地址和端口。
  • redis-cli客户端提供了 –c 参数实现自动重定向。

     如 redis-cli  -c –p 6379 登入后,再录入、查询键值对可以自动重定向。

  • 不在一个slot下的键值,是不能使用mget,mset等多键操作。
  • 可以通过{}来定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去。

查询集群中的值

  • CLUSTER KEYSLOT <key> 计算键 key 应该被放置在哪个槽上。
  • CLUSTER COUNTKEYSINSLOT <slot> 返回槽 slot 目前包含的键值对数量。  
  • CLUSTER GETKEYSINSLOT <slot> <count> 返回 count 个 slot 槽中的键。

故障恢复

  • 如果主节点下限?从节点能否自动升为主节点?
  • 主节点恢复后,主从关系会如何?
  • 如果所有某一段插槽的主从节点都当掉,redis服务是否还能继续?
  • redis.conf中的参数  cluster-require-full-coverage

5、 集群的Jedis开发

public class JedisClusterTest {
  public static void main(String[] args) {
     Set<HostAndPort> set =new HashSet<HostAndPort>();
     set.add(new HostAndPort("192.168.1.100",6379));
     JedisCluster jedisCluster=new JedisCluster(set);
     jedisCluster.set("k1", "v1");
     System.out.println(jedisCluster.get("k1"));
  }
}

Redis 集群提供了以下好处:

  • 实现扩容
  • 分摊压力
  • 无中心配置相对简单

Redis 集群的不足:

  • 多键操作是不被支持的
  • 多键的Redis事务是不被支持的。lua脚本不被支持。
  • 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大。

 

Redis数据库 02事务| 持久化| 主从复制| 集群

标签:ado   支持   高效   creat   功能   备份   doc   div   恢复   

原文地址:https://www.cnblogs.com/shengyang17/p/10264950.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!