码迷,mamicode.com
首页 > 数据库 > 详细

mysql基于binlog回滚工具_flashback(python版本)

时间:2017-06-20 11:05:04      阅读:236      评论:0      收藏:0      [点我收藏+]

标签:上进   个人   innodb   ash   恢复   机制   option   amp   oca   

 

    update、delete的条件写错甚至没有写,导致数据操作错误,需要恢复被误操作的行记录。这种情形,其实时有发生,可以选择用备份文件+binlog来恢复到测试环境,然后再做数据修复,但是这样其实需要耗费一定的时间跟资源。

    其实,如果binlog format为row,binlog文件中是会详细记录每一个事务涉及到操作,并把每一个事务影响到行记录均存储起来,能否给予binlog 文件来反解析数据库的行记录变动情况呢?
    业界已有不少相关的脚本及工具,但是随着MySQL版本的更新、binlog记录内容的变化以及需求不一致,大多数脚本不太适合个人目前的使用需求,所以开始着手编写 mysql的 flash back脚本。
 


 
    如果转载,请注明博文来源: www.cnblogs.com/xinysu/   ,版权归 博客园 苏家小萝卜 所有。望各位支持!
 


 
     仅在MySQL 5.6/5.7版本测试,python运行环境需要安装pymysql模块。

1 实现内容

    根据binlog文件,对某个\些事务、某段时间某些表、某段时间全库 做回滚操作,实现闪回功能。工具处理过程中,会把binlog中的事务修改的行记录存储到表格中去,通过 dml_sql 列,可以查看每一个事务内部的所有行记录变更情况,通过 undo_sql 查看回滚的SQL内容。如下图,然后再根据表格内容做回滚操作。 
    技术分享  
    那么这个脚本有哪些优点呢?
  • 回滚分为2个命令:第一个命令 分析binglog并存储进入数据库;第二个命令 执行回滚操作;
  • 回滚的时候,可以把执行脚本跟回滚脚本统一存放到数据库中,可以查看 更新内容以及回滚内容;
  • 根据存储的分析表格,方便指定事务或者指定表格来来恢复;
  • 详细的日志输出,说明分析进度跟执行进度。
    分析binlog的输出截图(分析1G的binlog文件)
    技术分享
 
   回滚数据库的输出截图:
   技术分享

2 原理

    前提:实例启动了binlog并且格式为ROW。
    
    使用python对mysqlbinlog后的log文件进行文本分析处理,在整个处理过程中,有以下6个疑难点需要处理:
  1. 判断一个事务的开始跟结束
  2. 同一个事务的执行顺序需要反序执行
  3. 解析回滚SQL
  4. 同一个事务操作不同表格处理
  5. 转义字符处理,比如换行符、tab符等等
  6. timestamp数据类型参数值转换
  7. 负数处理
  8. 单个事务涉及到行修改SQL操作了 max_allow
  9. 针对某个表格做回滚,而不是全库回滚
    

2.1 事务的开始与结束

    按照Xid出现的位置来判断,从binlog文件的最开始开始读取,遇到SQL语句则提取出来,直到遇到Xid,统一把之前提取出来的SQL汇总为一个事务,然后继续提取SQL语句,直到遇到下一个Xid,再把这个事务的SQL汇总成一个事务,一直这样循环,直至文件顺序遍历结束。
    技术分享

 

2.2 事务内部反序处理

    同一个事务中,如果有多个表格多行记录发生变更,在回滚的时候,应该反序回滚SQL,那么,如何将提取出来的SQL反序存储呢?思路如下:
  • 每行记录的修改SQL独立出来
  • 将独立出来的SQL反序存储
   假设正序的事务SQL语句存储在变量 dml_sql 中,反序后的可以回滚的SQL存储在变量 undo_sql中。按顺序把行记录修改的SQL抽取出来 存储到变量 record_sql 中去,然后 赋值 undo_sql =record_sql + undo_sql ,再置空 record_sql 变量,如此,便可实现反序事务内部的执行SQL。

2.3 解析回滚SQL

    首先,查看binlog的日志内容,发现行修改的SQL情形如下,提取过程中需要注意这几个问题:
  • 行记录的列名配对,binlog file存储的列序号,不能直接使用
  • WHERE部分 跟 SET部分 之间并无关键字或者符号,需要添加 AND 或者 逗号
  • DELETE SQL 需要反转为 INSERT
  • UPDATE SQL 需要把WHERE 跟 SET的部分进行替换
  • INSERT SQL需要反转为 DELETE
  • 技术分享

2.4 同事务不同表格处理

    同一个事务中,允许对不同表格进行数据修改,这点在列名替换列序号的时候,需要留意处理。
    每一个的行记录前有一行记录,含有 ‘Table_map‘ 标识,会说明这一行当行记录是修改哪个表格,可以根据这个提示,来替换binlog里边的列序号为列名。

2.5 转义字符处理

    binlog文件在对非空格的空白字符处理,采用转义字符字符串存储,比如,在表格insert一列记录含换行符,而实际上在binlog文件中,是使用了 \x0a 替换了 换行操作,所以在回滚数据的过程中,需要对转义字符做处理。
    技术分享

    技术分享

 

    
    这里注意一个地方,039的转义字符是没有在函数 esc_code 中统一处理,而是单独做另外处理。
    技术分享

 

    转移字符表相见下图:
    技术分享

 

2.6 timestamp数据类型处理

    timestamp实际在数据库中的存储值是 INT类型,需要使用 函数 from_unixtime转换。
    建立测试表格tbtest,只有一列timestamp的列,存储值后查看binlog的内容,具体截图如下:
    技术分享

 

    在处理行记录的时候,要对timestamp的value做处理,添加from_unixtime函数转换。

2.7 负数值处理

    这个一开始写代码的时候,并没有考虑到。大量测试的过程中发现,所有整型的数据类型,在存储负数的时候,都会存入一个最大范围值。binlog在处理这块的机制有些不是很了解。测试如下:
    技术分享

 

   所以当遇到INT的各种数据类型并且VALUE为负数的时候,需要把 这个范围值去除,才能执行执行undo_sql。

2.8 单个事务行记录总SQL超过max_allowed_package处理

    分析binlog后存储两种sql类型,一种是行记录的修改SQL,即 dml_sql;一种是 行记录的回滚sql,即 undo_sql。从代码可知,存储这两个sql的列是longtext,最大可存储4G的内容。但是 MySQL中单个会话的包大小是有限制的,限制的参数为 max_allowed_packet,默认大小为 4Mb,最大为1G,所以这个脚本使用前,请手动设置 存储binlog file的数据库实例以及线上的数据库实例这个参数:
set global max_allowed_packet = 1073741824; #记得后续修改回来
    
    万一操作了呢?那么回滚只能分段来回滚,先回滚到 这个大事务,然后单独执行这个大事务,紧接着继续回滚,这部分不能使用pymysql嗲用source 文件执行,所以只能手动做这个操作。 求高能人士修改这个逻辑代码!!!

2.9 针对性回滚

    假设误操作的没有明确的时间点,只有一个区间,而这个区间还有其他的表格操作,那么这个时候,需要在分析binlog文件的时候,添加--database选项,先帅选到同一个数据库中binlog文件中。
    这里的处理是将这段区间的dml_sql跟undo_sql都存储到数据库表格中,然后再删除不需要回滚的事务,剩余需要回滚的事务。再执行回滚操作。

3 使用说明

3.1 参数说明

    这个脚本的参数稍微多些,可以 --help 查看具体说明。
    技术分享

 

    本人喜欢用各种颜色来分类参数(blingbling五颜六色,看着多有趣多精神),所以,按颜色来说明这些参数。
  • 黄色区域:这6个参数,提供的是 分析并存储binlog file的相关值,说明存储分析结果的数据库的链接方式、binlog文件的位置以及存储结果的表格名字;
  • 蓝色区域:这4个参数,提供 与线上数据库表结构一致的DB实例连接方式,仅需跟线上一模一样的表结构,不一定需要是主从库;
  • 绿色区域:最最重要的选项 -a,0代表仅分析binlog文件,1代表仅执行回滚操作,必须先执行0才可以执行1;
  • 紫色区域:举例说明。

3.2 应用场景说明

  • 全库回滚某段时间
    • 需要回滚某个时间段的所有SQL操作,回滚到某一个时间点
    • 这种情况下呢,大多数是使用备份文件+binlog解决
    • 但是这个脚本也可以满足,但请勿直接在线上操作,先 -a=0,看下分析结果,是否符合,符合的话,停掉某个从库,再在从库上执行,最后开发业务接入检查是否恢复到指定时间点,数据是否正常。
  • 某段时间某些表格回滚某些操作
    • 比如,开发提交了一个批量更新脚本,各个测试层面验证没有问题,提交线上执行,但是执行后,发现有个业务漏测试,导致某些字段更新后影响到其他业务,现在需要紧急 把被批量更新的表格回滚到原先的行记录
    • 这个并不能单纯从技术角度来处理,要综合考虑
      • 技术分享

         

      • 这种情况下,如何回顾tab A表格的修改操作呢?
      • 个人觉得,这种方式比较行得通,dump tabA表格的数据到测试环境,然后再分析 binlog file 从11点-12点的undo sql,接着在测试环境回滚该表格到11点这个时刻,紧接着,由开发跟业务对比测试环境11点的数据跟线上现有的数据中,看下是哪些行哪些列需要在线上进行回滚,哪些是不需要的,然后开发再提交SQL脚本,再在线上执行。其实,这里边,DBA仅提供一个角色,就是把 表格 tab A 在一个新的环境上,回滚到某个时间点,但是不提供直接线上回滚SQL的处理。
  • 回滚某个/些SQL
    • 这种情况比较常见,某个update某个delete缺少where条件或者where条件执行错误
    • 这种情况下,找到对应的事务,执行回滚即可,回滚流程请参考上面一说,对的,我就是这么胆小怕事 技术分享

       

3.3 测试案例

3.3.1 全库回滚某段时间

假设需要回滚9点10分到9点15分间数据库的所有操作:
  • 准备测试环境实例存储分析后的数据 
  • 测试环境修改set global max_allowed_packet = 1073741824
  • mysqlbinlog分析binlog文件
  • python脚本分析文件,action=0
  • 线上测试环境修改set global max_allowed_packet = 1073741824
  • 回滚数据,action=1
  • 线上测试环境修改set global max_allowed_packet = 4194304
 1 --测试环境(请安装pymysql):IP: 192.168.9.242,PORT:3310 ,数据库:flashback,表格:tbevent
 2 --具有线上表结构的db:IP:192.168.9.243 PORT:3310
 3 
 4 
 5 mysql> show global variables like max_allowed_packet;
 6 +--------------------+----------+
 7 | Variable_name      | Value    |
 8 +--------------------+----------+
 9 | max_allowed_packet | 16777216 |
10 +--------------------+----------+
11 1 row in set (0.00 sec)
12 
13 mysql> set global max_allowed_packet = 1073741824;
14 Query OK, 0 rows affected (0.00 sec)
15 
16 [root@sutest244 ~]# mysqlbinlog --start-datetime=‘2017-06-19 09:00:00‘ --stop-datetime=‘2017-06-19 10:00:00‘ --base64-output=decode-rows -v ~/data/mysql/data/mysql-bin.007335 > /tmp/binlog.log
17 
18 [root@sutest242 pycharm]# python su_flashback.py -h=127.0.0.1 -P=3310 -u=root -p=**** -f=/tmp/binlog.log -t=flashback.tbevent -oh=192.168.9.244 -oP=3310 -u=root -op=**** -a=0
19 2017-06-19 10:59:39,041 INFO begin to assign values to parameters
20 2017-06-19 10:59:39,041 INFO assign values to parameters is done:host=127.0.0.1,user=root,password=***,port=3310,fpath=/tmp/binlog.log,tbevent=flashback.tbevent
21 2017-06-19 10:59:39,049 INFO MySQL which userd to store binlog event connection is ok
22 2017-06-19 10:59:39,050 INFO assign values to online mysql parameters is done:host=192.168.9.244,user=,password=***,port=3310
23 2017-06-19 10:59:39,054 INFO MySQL which userd to analyse online table schema connection is ok
24 2017-06-19 10:59:39,054 INFO MySQL connection is ok
25 2017-06-19 10:59:39,055 INFO creating table flashback.tbevent to store binlog event
26 2017-06-19 10:59:39,058 INFO created table flashback.tbevent 
27 2017-06-19 10:59:39,060 INFO begining to analyze the binlog file ,this may be take a long time !!!
28 2017-06-19 10:59:39,061 INFO analyzing...
29 2017-06-19 11:49:53,781 INFO finished to analyze the binlog file !!!
30 2017-06-19 11:49:53,782 INFO release all db connections
31 2017-06-19 11:49:53,782 INFO All done,check the flashback.tbevent which stored binlog event on host 127.0.0.1 , port 3310 
32 
33 
34 [root@sutest242 pycharm]# python su_flashback.py -h=127.0.0.1 -P=3310 -u=root -p=**** -f=/tmp/binlog.log -t=flashback.tbevent -oh=192.168.9.244 -oP=3310 -u=root -op=**** -a=1
35 2017-06-19 16:30:20,633 INFO begin to assign values to parameters
36 2017-06-19 16:30:20,635 INFO assign values to parameters is done:host=127.0.0.1,user=root,password=***,port=3310,fpath=/tmp/binlog.log,tbevent=flashback.tbevent
37 2017-06-19 16:30:20,865 INFO MySQL which userd to store binlog event connection is ok
38 2017-06-19 16:30:20,866 INFO assign values to online mysql parameters is done:host=192.168.9.244,user=,password=***,port=3310
39 2017-06-19 16:30:20,871 INFO MySQL which userd to analyse online table schema connection is ok
40 2017-06-19 16:30:20,871 INFO MySQL connection is ok
41 2017-06-19 16:30:21,243 INFO There has 347868 transactions ,need 35 batchs ,each batche doing 10000 transactions 
42 2017-06-19 16:30:21,243 INFO doing batch : 1 
43 2017-06-19 16:31:01,182 INFO doing batch : 2 
44 2017-06-19 16:31:16,909 INFO doing batch : 3 
45 -------省空间忽略不截图--------------
46 2017-06-19 16:41:11,287 INFO doing batch : 34 
47 2017-06-19 16:41:25,577 INFO doing batch : 35 
48 2017-06-19 16:41:44,629 INFO release all db connections
49 2017-06-19 16:41:44,630 INFO All done,check the flashback.tbevent which stored binlog event on host 127.0.0.1 , port 3310

3.3.2 某段时间某些表格回滚某些操作

  • 准备测试环境实例存储分析后的数据 
  • 测试环境修改set global max_allowed_packet = 1073741824
  • mysqlbinlog分析binlog文件
  • python脚本分析文件,action=0
  • 分析帅选需要的事务,rename表格
  • dump 对应的表格到测试环境
  • 回滚数据,action=1
  • 提交给开发业务对比数据

3.3.3 回滚某个/些SQL

  • 准备测试环境实例存储分析后的数据 
  • 测试环境修改set global max_allowed_packet = 1073741824
  • mysqlbinlog分析binlog文件
  • python脚本分析文件,action=0
  • 分析帅选需要的事务,rename表格
  • dump 对应的表格到测试环境
  • 回滚数据,action=1
  • 提交给开发业务对比数据

4 python脚本

     脚本会不定期修复bug,若是感兴趣,可以往github下载:https://github.com/xinysu/mysql.git 中的 mysql_xinysu_flashback 。

  1 # -*- coding: utf-8 -*-
  2 __author__ = xinysu
  3 __date__ = 2017/6/15 10:30
  4 
  5 
  6 
  7 import re
  8 import os
  9 import sys
 10 import datetime
 11 import time
 12 import logging
 13 import importlib
 14 importlib.reload(logging)
 15 logging.basicConfig(level=logging.DEBUG,format=%(asctime)s %(levelname)s %(message)s )
 16 
 17 import pymysql
 18 from pymysql.cursors import DictCursor
 19 
 20 usage=‘‘‘\nusage: python [script‘s path] [option]
 21 ALL options need to assign:
 22 \033[1;33;40m
 23 -h    : host, the database host,which database will store the results after analysis
 24 -u    : user, the db user
 25 -p    : password, the db user‘s password
 26 -P    : port, the db port
 27 
 28 -f    : file path, the binlog file
 29 -t    : table name, the table name to store the results after analysis , {dbname}.{tbname},
 30         when you want to store in `test` db and the table name is `tbevent`,then this parameter 
 31         is test.tbevent
 32 \033[1;34;40m
 33 -oh   : online host, the database host,which database have the online table schema
 34 -ou   : online user, the db user
 35 -op   : online password, the db user‘s password
 36 -oP   : online port, the db port
 37 \033[1;32;40m
 38 -a    : action, 
 39         0 just analyse the binlog file ,and store sql in table; 
 40         1 after execute self.dotype=0, execute the undo_sql in the table
 41 \033[0m  
 42 --help: help document
 43 \033[1;35;40m
 44 Example:
 45 analysize binlog:
 46 python su_flashback.py -h=127.0.0.1 -P=3310 -u=root -p=*** -f=/tmp/binlog.log -t=flashback.tbevent 
 47                        -oh=192.168.9.244 -oP=3310 -u=root -op=*** 
 48                        -a=0
 49 
 50 flash back:
 51 python su_flashback.py -h=127.0.0.1 -P=3310 -u=root -p=*** -f=/tmp/binlog.log -t=flashback.tbevent 
 52                        -oh=192.168.9.244 -oP=3310 -u=root -op=*** 
 53                        -a=1
 54 \033[0m                        
 55 ‘‘‘
 56 
 57 class flashback:
 58     def __init__(self):
 59         self.host=‘‘
 60         self.user=‘‘
 61         self.password=‘‘
 62         self.port=3306
 63         self.fpath=‘‘
 64         self.tbevent=‘‘
 65 
 66         self.on_host=‘‘
 67         self.on_user=‘‘
 68         self.on_password=‘‘
 69         self.on_port=3306
 70 
 71         self.action=0 # 0 just analyse the binlog file ,and store sql in table;1 after execute self.dotype=0, execute the undo_sql in the table
 72 
 73         self._get_db() # 从输入参数获取连接数据库的相关参数值
 74 
 75         # 连接数据库,该数据库是用来存储binlog文件分析后的内容
 76         logging.info(assign values to parameters is done:host={},user={},password=***,port={},fpath={},tbevent={}.format(self.host,self.user,self.port,self.fpath,self.tbevent))
 77         self.mysqlconn = pymysql.connect(host=self.host, user=self.user, password=self.password, port=self.port,charset=utf8)
 78         self.cur = self.mysqlconn.cursor(cursor=DictCursor)
 79         logging.info(MySQL which userd to store binlog event connection is ok)
 80 
 81         # 连接数据库,该数据库的表结构必须跟binlogfile基于对数据库表结构一致
 82         # 该数据库用于提供 binlog file 文件中涉及到表结构分析
 83         logging.info(assign values to online mysql parameters is done:host={},user={},password=***,port={}.format(self.on_host, self.on_user, self.on_port))
 84         self.on_mysqlconn = pymysql.connect(host=self.on_host, user=self.on_user, password=self.on_password, port=self.on_port,charset=utf8)
 85         self.on_cur = self.on_mysqlconn.cursor(cursor=DictCursor)
 86         logging.info(MySQL which userd to analyse online table schema connection is ok)
 87 
 88         logging.info(\033[33mMySQL connection is ok\033[0m)
 89 
 90         self.dml_sql=‘‘
 91         self.undo_sql=‘‘
 92 
 93         self.tbfield_where = []
 94         self.tbfield_set = []
 95 
 96         self.begin_time=‘‘
 97         self.db_name=‘‘
 98         self.tb_name=‘‘
 99         self.end_time=‘‘
100         self.end_pos=‘‘
101         self.sqltype=0
102 
103     #_get_db用于获取执行命令的输入参数
104     def _get_db(self):
105         logging.info(begin to assign values to parameters)
106         if len(sys.argv) == 1:
107             print(usage)
108             sys.exit(1)
109         elif sys.argv[1] == --help:
110             print(usage)
111             sys.exit()
112         elif len(sys.argv) > 2:
113             for i in sys.argv[1:]:
114                 _argv = i.split(=)
115                 if _argv[0] == -h:
116                     self.host = _argv[1]
117                 elif _argv[0] == -u:
118                     self.user = _argv[1]
119                 elif _argv[0] == -P:
120                     self.port = int(_argv[1])
121                 elif _argv[0] == -f:
122                     self.fpath = _argv[1]
123                 elif _argv[0] == -t:
124                     self.tbevent = _argv[1]
125                 elif _argv[0] == -p:
126                     self.password = _argv[1]
127 
128                 elif _argv[0] == -oh:
129                     self.on_host = _argv[1]
130                 elif _argv[0] == -ou:
131                     self.on_user = _argv[1]
132                 elif _argv[0] == -oP:
133                     self.on_port = int(_argv[1])
134                 elif _argv[0] == -op:
135                     self.on_password = _argv[1]
136 
137                 elif _argv[0] == -a:
138                     self.action = _argv[1]
139 
140                 else:
141                     print(usage)
142 
143     #创建表格,用于存储分析后的BINLOG内容
144     def create_tab(self):
145         logging.info(creating table {} to store binlog event.format(self.tbevent))
146         create_tb_sql =‘‘‘
147         CREATE TABLE IF NOT EXISTS {}(
148             auto_id INT(10) UNSIGNED NOT NULL AUTO_INCREMENT,
149             binlog_name VARCHAR(100) NOT NULL COMMENT ‘the binlog file path and name‘,
150             dml_start_time DATETIME NOT NULL COMMENT ‘when to start this transaction ‘,
151             dml_end_time DATETIME NOT NULL COMMENT ‘when to finish this transaction ‘,
152             end_log_pos BIGINT NOT NULL COMMENT ‘the log position for finish this transaction‘,
153             db_name VARCHAR(100) NOT NULL COMMENT ‘which database happened this transaction ‘,
154             table_name VARCHAR(200) NOT NULL COMMENT ‘which table happened this transaction ‘,
155             sqltype INT NOT NULL COMMENT ‘1 is insert,2 is update,3 is delete‘,
156             dml_sql LONGTEXT NULL  COMMENT ‘what sql excuted‘,
157             undo_sql LONGTEXT NULL COMMENT ‘rollback sql, this sql used for flashback‘,
158             PRIMARY KEY (auto_id),
159             INDEX sqltype(sqltype),
160             INDEX dml_start_time (dml_start_time),
161             INDEX dml_end_time (dml_end_time),
162             INDEX end_log_pos (end_log_pos),
163             INDEX db_name (db_name),
164             INDEX table_name (table_name)
165         )
166         COLLATE=‘utf8_general_ci‘ ENGINE=InnoDB;
167         TRUNCATE TABLE {};
168 
169         ‘‘‘.format(self.tbevent,self.tbevent)
170         self.cur.execute(create_tb_sql)
171         logging.info(created table {} .format(self.tbevent))
172 
173     #获取表格的列顺序对应的列名,并处理where set的时候,列与列之间的连接字符串是逗号还是 and
174     def tbschema(self,dbname,tbname):
175         self.tbfield_where = []
176         self.tbfield_set = []
177 
178         sql_tb=desc {}.{}.format(self.db_name,self.tb_name)
179 
180         self.on_cur.execute(sql_tb)
181         tbcol=self.on_cur.fetchall()
182 
183         i = 0
184         for l in tbcol:
185             #self.tbfield.append(l[‘Field‘])
186             if i==0:
187                 self.tbfield_where.append(`+l[Field]+`)
188                 self.tbfield_set.append(`+l[Field]+`)
189                 i+=1
190             else:
191                 self.tbfield_where.append(/*where*/ and /*where*/ + `+l[Field]+`)
192                 self.tbfield_set.append( /*set*/ , /*set*/+`+l[Field]+` )
193 
194     # 一个事务记录一行,若binlog file中的行记录包含 Table_map,则为事务的开始记录
195     def rowrecord(self,bl_line):
196         try:
197             if bl_line.find(Table_map:) != -1:
198                 l = bl_line.index(server)
199                 m = bl_line.index(end_log_pos)
200                 n = bl_line.index(Table_map)
201                 begin_time = bl_line[:l:].rstrip( ).replace(#, 20)
202 
203                 self.begin_time = begin_time[0:4] + - + begin_time[4:6] + - + begin_time[6:]
204                 self.db_name = bl_line[n::].split( )[1].replace(`, ‘‘).split(.)[0]
205                 self.tb_name = bl_line[n::].split( )[1].replace(`, ‘‘).split(.)[1]
206 
207                 self.tbschema(self.db_name,self.tb_name)
208         except Exception:
209             return funtion rowrecord error
210 
211     def dml_tran(self,bl_line):
212         try:
213 
214 
215             if bl_line.find(Xid =) != -1:
216 
217                 l = bl_line.index(server)
218                 m = bl_line.index(end_log_pos)
219                 end_time = bl_line[:l:].rstrip( ).replace(#, 20)
220                 self.end_time = end_time[0:4] + - + end_time[4:6] + - + end_time[6:]
221                 self.end_pos = int(bl_line[m::].split( )[1])
222 
223 
224 
225                 self.undo_sql = self.dml_sql.replace( INSERT INTO, ;DELETE FROM_su).replace( UPDATE ,;UPDATE).replace( DELETE FROM, ;INSERT INTO).replace(;DELETE FROM_su, ;DELETE FROM).replace(WHERE, WHERE_marksu).replace(SET, WHERE).replace(WHERE_marksu, SET).replace(/*set*/ , /*set*/,  and ).replace(/*where*/ and /*where*/, , )
226                 self.dml_sql=self.dml_sql.replace(/*set*/ , /*set*/,  , ).replace(/*where*/ and /*where*/, and )
227 
228                 if self.dml_sql.startswith( INSERT INTO ):
229                     self.sqltype=1
230                 elif self.dml_sql.startswith( UPDATE ):
231                     self.sqltype=2
232                 elif self.dml_sql.startswith( DELETE ):
233                     self.sqltype=3
234 
235                 record_sql = ‘‘
236                 undosql_desc = ‘‘
237 
238                 #同个事务内部的行记录修改SQL,反序存储
239                 for l in self.undo_sql.splitlines():
240                     if l.startswith( ;UPDATE) or l.startswith( ;INSERT) or l.startswith( ;DELETE):
241                         undosql_desc = record_sql + undosql_desc
242                         record_sql = ‘‘
243                         record_sql = record_sql + l
244                     else:
245                         record_sql = record_sql + l
246 
247                 self.undo_sql = record_sql + undosql_desc
248                 self.undo_sql = self.undo_sql.lstrip()[1:]+;
249 
250                 #处理非空格的空白特殊字符
251                 self.dml_sql = self.esc_code(self.dml_sql)
252                 self.undo_sql = self.esc_code(self.undo_sql)
253 
254                 #单独处理 转移字符: \‘
255                 self.dml_sql = self.dml_sql.replace("", "‘‘").replace(\\x27,"‘‘‘‘")  # + ‘;‘
256                 self.undo_sql = self.undo_sql.replace("", "‘‘").replace(\\x27,"‘‘‘‘")  # + ‘;‘
257 
258                 if len(self.dml_sql)>500000000:
259                     with open(/tmp/flashback_undosql/+str(self.end_pos)+.sql, w) as w_f:
260                         w_f.write(begin; + \n)
261                         w_f.write(self.undo_sql)
262                         w_f.write(commit; + \n)
263                     self.dml_sql=‘‘
264                     self.undo_sql=/tmp/flashback_undosql/+str(self.end_pos)+.sql
265                     logging.info("the size of this transaction is more than 500Mb ,the file location : {}".format(self.undo_file))
266 
267                 insert_sql = "INSERT INTO {}(binlog_name,dml_start_time,dml_end_time,end_log_pos,db_name,table_name,sqltype,dml_sql,undo_sql) select  ‘{}‘,‘{}‘,‘{}‘,‘{}‘,‘{}‘,‘{}‘,{},‘{}‘,‘{}‘".format(
268                     self.tbevent, self.fpath, self.begin_time, self.end_time, self.end_pos,
269                     self.db_name, self.tb_name, self.sqltype, self.dml_sql, self.undo_sql)
270 
271                 self.cur.execute(insert_sql)
272                 self.mysqlconn.commit()
273 
274                 self.dml_sql = ‘‘
275                 self.undo_sql = ‘‘
276         except Exception:
277             print( funtion dml_tran error)
278 
279 
280     def analyse_binlog(self):
281         try:
282             sqlcomma=0
283             self.create_tab()
284 
285             with open(self.fpath,r) as binlog_file:
286                 logging.info(\033[36mbegining to analyze the binlog file ,this may be take a long time !!!\033[0m)
287                 logging.info(\033[36manalyzing...\033[0m)
288                 for bline in binlog_file:
289                     if bline.find(Table_map:) != -1:
290                         self.rowrecord(bline)
291                         bline=‘‘
292                     elif bline.rstrip()==### SET:
293                         bline = bline[3:]
294                         sqlcomma=1
295                     elif bline.rstrip()==### WHERE:
296                         bline = bline[3:]
297                         sqlcomma = 2
298                     elif bline.startswith(###   @):
299                         len_f=len(###   @)
300                         i=bline[len_f:].split(=)[0]
301 
302                         #处理timestamp类型
303                         if bline[8+len(i):].split( )[2] == TIMESTAMP(0):
304                             stop_pos = bline.find( /* TIMESTAMP(0) meta=)
305                             bline = bline.split(=)[0] + =from_unixtime( + bline[:stop_pos].split(=)[1] + )
306 
307                         #处理负数存储方式
308                         if bline.split(=)[1].startswith(-):
309                             stop_pos = bline.find( /* TIMESTAMP(0) meta=)
310                             bline = bline.split(=)[0] + = + bline.split(=)[1].split( )[0]+\n
311 
312                         if sqlcomma==1:
313                             bline = self.tbfield_set[int(i) - 1]+bline[(len_f+len(i)):]
314                         elif sqlcomma==2:
315                             bline = self.tbfield_where[int(i) - 1] + bline[(len_f+len(i)):]
316 
317                     elif bline.startswith(### DELETE) or bline.startswith(### INSERT) or bline.startswith(### UPDATE):
318                         bline = bline[3:]
319 
320                     elif bline.find(Xid =) != -1:
321                         self.dml_tran(bline)
322                         bline=‘‘
323                     else:
324                         bline = ‘‘
325 
326                     if bline.rstrip(\n) != ‘‘:
327                         self.dml_sql = self.dml_sql + bline +  
328         except Exception:
329             return function do error
330 
331     def esc_code(self,sql):
332         esc={
333              \\x07:\a,\\x08:\b,\\x0c:\f,\\x0a:\n,\\x0d:\r,\\x09:\t,\\x0b:\v,\\x5c:\\,
334             #‘\\x27‘:‘\‘‘,
335             \\x22:\",\\x3f:\?,\\x00:\0
336              }
337 
338         for k,v in esc.items():
339             sql=sql.replace(k,v)
340         return sql
341 
342     def binlogdesc(self):
343 
344         countsql=select sqltype , count(*) numbers from {} group by sqltype order by sqltype .format(self.tbevent)
345         print(countsql)
346         self.cur.execute(countsql)
347         count_row=self.cur.fetchall()
348 
349         update_count=0
350         insert_couont=0
351         delete_count=0
352         for row in count_row:
353             if row[sqltype]==1:
354                 insert_couont=row[numbers]
355             elif row[sqltype]==2:
356                 update_count=row[numbers]
357             elif row[sqltype]==3:
358                 delete_count=row[numbers]
359         logging.info(\033[1;35mTotal transactions number is {}: {} inserts, {} updates, {} deletes !\033[0m(all number is accurate, the other is approximate value) \033[0m.format(insert_couont+update_count+delete_count,insert_couont,update_count,delete_count))
360 
361     def undosql(self,number):
362         #这里会有几个问题:
363         #1 如果一共有几十万甚至更多的事务操作,那么这个python脚本,极为占用内存,有可能执行错误;
364         #2 如果单个事务中,涉及修改的行数高达几十万行,其binlog file 达好几G,这里也会有内存损耗问题;
365         #所以,针对第一点,这里考虑对超多事务进行一个分批执行处理,每个批次处理number个事务,避免一次性把所有事务放到python中;但是第2点,目前暂未处理
366 
367         tran_num=1
368         id=0
369 
370         tran_num_sql="select count(*) table_rows from {}".format(self.tbevent)
371 
372         self.cur.execute(tran_num_sql)
373         tran_rows=self.cur.fetchall()
374 
375         for num in tran_rows:
376             tran_num=num[table_rows]
377 
378         logging.info(\033[32mThere has {} transactions ,need {} batchs ,each batche doing {} transactions \033[0m.format(tran_num,int(tran_num/number)+1,number))
379 
380         while id<=tran_num:
381             logging.info(doing batch : {} .format(int(id/number)+1))
382             undo_sql=select auto_id,undo_sql from {} where auto_id > {} and auto_id <= {} order by auto_id desc;.format(self.tbevent,tran_num-(id+number),tran_num-id)
383             self.cur.execute(undo_sql)
384 
385             undo_rows=self.cur.fetchall()
386             f_sql=‘‘
387 
388             for u_row in undo_rows:
389                 try:
390                     self.on_cur.execute(u_row[undo_sql])
391                     self.on_mysqlconn.commit()
392                 except Exception:
393                     print(auto_id:,u_row[auto_id])
394             id+=number
395 
396 
397     def undo_file(self,number):
398         # 也可以选择私用undo_file将undo_sql导入到文件中,然后再source
399 
400         tran_num=1
401         id=0
402 
403         tran_num_sql="select count(*) table_rows from {}".format(self.tbevent)
404 
405         self.cur.execute(tran_num_sql)
406         tran_rows=self.cur.fetchall()
407 
408         for num in tran_rows:
409             tran_num=num[table_rows]
410 
411         logging.info(copy undo_sql to undo file on : /tmp/flashback_undosql/undo_file_flashback.sql)
412         logging.info(\033[32mThere has {} transactions ,need {} batchs to copy ,each batche doing {} transactions \033[0m.format(tran_num,int(tran_num/number)+1,number))
413 
414         with open(/tmp/flashback_undosql/undo_file_flashback.sql, w) as w_f:
415             while id<=tran_num:
416                 logging.info(doing batch : {} .format(int(id/number)+1))
417                 undo_sql=select auto_id,undo_sql from {} where auto_id > {} and auto_id <= {} order by auto_id desc;.format(self.tbevent,tran_num-(id+number),tran_num-id)
418                 self.cur.execute(undo_sql)
419 
420                 undo_rows=self.cur.fetchall()
421                 for u_row in undo_rows:
422                     try:
423                         w_f.write(begin; + \n)
424                         w_f.write(# auto_id+str(u_row[auto_id]) + \n)
425                         w_f.write(u_row[undo_sql] + \n)
426                         w_f.write(commit; + \n)
427                     except Exception:
428                         print(auto_id,u_row[auto_id])
429                     #time.sleep(2)
430                 id+=number
431 
432     def do(self):
433         if self.action==0:
434             self.analyse_binlog()
435             logging.info(\033[36mfinished to analyze the binlog file !!!\033[0m)
436             #self.binlogdesc()
437         elif self.action==1:
438             self.undosql(10000)
439 
440     def closeconn(self):
441         self.cur.close()
442         self.on_cur.close()
443         logging.info(release all db connections)
444         logging.info(\033[33mAll done,check the {} which stored binlog event on host {} , port {} \033[0m.format(self.tbevent,self.host,self.port))
445 
446 def main():
447     p = flashback()
448     p.do()
449     p.closeconn()
450 
451 if __name__ == "__main__":
452     main()

 

mysql基于binlog回滚工具_flashback(python版本)

标签:上进   个人   innodb   ash   恢复   机制   option   amp   oca   

原文地址:http://www.cnblogs.com/xinysu/p/7052923.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!