MySQL 通过 MTS 多线程恢复增量日志备份

文若3年前技术文章737


一、前言

当发生 DDL 误删数据时,只能通过 备份 + 增量日志 来恢复,备份恢复到新实例后,将增量日志备份进行应用,此时只能单线程效率不高,我们可以使用 MySQL 5.7 推出的 MTS 多线程复制机制,进行多线程日志回放。

二、操作案例

1. 全量备份恢复

使用备份恢复一个新的实例:

[root@db2 backup]# ls
backup_20211118  mysql-bin.000001  mysql-bin.000002  mysql-bin.index

-- xtrabackup --prepare --apply-log-only --target-dir=./
-- cp -r backup_20211118 /data/mysql_80/data

2. 将需要恢复的日志 COPY 到新目录

cp mysql-bin.* /data/mysql_80/log_relay/

修改文件名和 index 中的内容:

/data/mysql_80/log_relay/mysql-relay.000001
/data/mysql_80/log_relay/mysql-relay.000002

授权:

chown -R mysql:mysql /data/mysql_80/

3.  修改参数文件启动 MySQL

relay_log = /data/mysql_80/log_relay/mysql-relay
relay_log_index = /data/mysql_80/log_relay/mysql-relay.index
slave_parallel_type=LOGICAL_CLOCK
slave_parallel_workers=16
relay_log_recovery=off
skip_slave_start

修改 server_id 如果不修改 MySQL 回放会认为是自己生成的,会直接跳过。也可以使用 --replicate-same-server-id 启动数据库。

4. 创建复制通道

change master to 
master_host='localhost',
master_port=3306,
MASTER_AUTO_POSITION=0,
RELAY_LOG_FILE='mysql-relay.000001',
RELAY_LOG_POS=4;

启动复制,如果想在某个事物上面停下,可以使用 slave until 语法。

start slave sql_thread;
start slave until SQL_BEFORE_GTIDS ='00024731-1111-1111-1111-111111111111:22';

5. 监控回放情况

show slave status\G

Retrieved_Gtid_Set: dcd7886c-4844-11ec-8c2f-faec3ea1f200:1-2900
Executed_Gtid_Set: dcd7886c-4844-11ec-8c2f-faec3ea1f200:1-201


相关文章

百万并发下的nginx优化

百万并发下的nginx优化

百万并发下的nginx优化之道一、nginx地址重写1、nginx地址重写(rewrite)介绍nginx地址重写的主要功能是实现URL地址的重定向。服务器获得一个来访的URL请求,然后改写成服务器可...

MySQL索引与事务的透析——(超详解)

MySQL索引与事务的透析——(超详解)

索引2.1索引存在意义在数据库使用select查询数据的时候有以下几个步骤:1.先遍历表;2.在把当前的行带入条件看条件是否成立;3.若成立则保留,反之就不保留,跳过;那么在一个表的数据非常大的时候,...

Java-API对HDFS的操作(IDEA版)

Java-API对HDFS的操作(IDEA版)

前期工作首先就是安装maven在win系统下不配置hadoop环境,直接运行代码会报错,显示缺少winutils.exe 和 hadoop.dll 两个文件首先添加pom.xml文件  <dep...

CDH实操--HDFS高可用设置

CDH实操--HDFS高可用设置

1 概述        在HDFS集群中NameNode存在单点故障(SPOF),对于只有一个NameNode的集群,如果NameNode机...

spark配置任务日志(Client模式& Cluster模式)

在Spark中,日志级别可以通过log4j.properties或log4j.xml文件来配置。对于spark-submit命令启动的应用程序,可以通过以下两种方式来修改日志级别:对于Client模式...

flink应用场景分析

•       Flink适合场景:•       实时数据流处理,对实时的海量...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。