• MySQL Percona Toolkit--pt-osc学习


    工作流程

    1、检查更改表是否有主键或唯一索引,是否有触发器
    2、检查修改表的表结构,创建一个临时表,在新表上执行ALTER TABLE语句
    3、在源表上创建三个触发器分别对于INSERT UPDATE DELETE操作
    4、从源表拷贝数据到临时表,在拷贝过程中,对源表的更新操作会写入到新建表中
    5、将临时表和源表rename(需要元数据修改锁,需要短时间锁表)
    6、删除源表和触发器,完成表结构的修改。

    工具限制

    1、源表必须有主键或唯一索引,如果没有工具将停止工作
    2、如果线上的复制环境过滤器操作过于复杂,工具将无法工作
    3、如果开启复制延迟检查,但主从延迟时,工具将暂停数据拷贝工作
    4、如果开启主服务器负载检查,但主服务器负载较高时,工具将暂停操作
    5、当表使用外键时,如果未使用--alter-foreign-keys-method参数,工具将无法执行
    6、只支持Innodb存储引擎表,且要求服务器上有该表1倍以上的空闲空间。
    7、被修改表上不能有针对after delete | insert |update三个触发器,否则修改表操作失败

    ALTER 语句限制

    1、不需要包含alter table关键字,可以包含多个修改操作,使用逗号分开,如"drop clolumn c1, add column c2 int"
    2、不支持rename语句来对表进行重命名操作
    3、不支持对索引进行重命名操作
    4、如果删除外键,需要对外键名加下划线,如删除外键fk_uid, 修改语句为"DROP FOREIGN KEY _fk_uid"
    5、重命名字段,不能使用drop add方式,会导致数据丢失,使用“change col1 col1_new type constraint",保持数据和约束一致。

    数据一致性与加锁

    如何保持数据一致性:
    1、对于"数据拷贝"方式产生的数据可能已存在于新表,使用INSERT LOW_PRIORITY IGNORE INTO忽略已有数据
    2、对于"触发器"方式产生的数据可能存储或不存在于新表,使用REPLACE INTO/DELETE IGNORE删除或替换数据
    3、使用RENAME TABLE来同时修改原表和新表的表名
    
    由于pt-osc只对正在拷贝的数据加共享锁,且每次拷贝操作只操作小范围的数据,单次操作会很快完成并释放共享锁,因此造成“不影响对原表访问”的假象。

    唯一索引

    使用pt-osc创建唯一索引时,会造成数据丢失,需谨慎操作:
    1、当表中要建立唯一索引的数据列上存在重复数据,则部分重复数据会丢失
    2、如果创建过程中插入新数据,新数据与原数据库存在重复,则原数据丢失
    
    丢失原因:
    由于INSERT和UPDATE触发器使用REPLCAE INTO的方式更新新表数据,而新表中包含唯一索引,导致REPLACE INTO操作转换成DELETE+INSERT操作,将已存在于新表中的重复记录删除,再插入当前记录,最终导致数据丢失。

    数据拷贝

    在拷贝数据过程中,工具会把数据按照主键或唯一键进行拆分,限制每次拷贝数据的行数以保证拷贝进行不过多消耗服务器资源。为保证源表和目标表数据相同,采用LOCK IN SHARE MODE来获取要拷贝数据段的最新数据并对数据加共享锁组织其他回话修改数据,采用LOW_PRIORITY IGNORE来将数据插入到新表中, 关键字LOW_PRIORIT使得插入操作会等待其他访问该表的操作完成会再执行,关键字INGORE使得表中出现主键或唯一索引键重复时新数据被忽略而不会被插入。
    
    对表`testdb1`.`tb1001`进行修改时的数据拷贝脚本:
    
    ## 先获取下一次拷贝数据的边界,强制索引可以有效避免执行计划出现问题
    SELECT /*!40001 SQL_NO_CACHE */ `id` FROM `testdb1`.`tb1001` FORCE INDEX(`PRIMARY`) WHERE ((`id` >= '8394306')) ORDER BY `id` LIMIT 22256, 2 /*next chunk boundary*/
    
    ## 通过拷贝数据的边界限制,防止单次拷贝过多数据而长时间阻塞其他回话
    INSERT LOW_PRIORITY IGNORE INTO `testdb1`.`_tb1001_new` (`id`, `c1`, `c6`) SELECT `id`, `c1`, `c6` FROM `testdb1`.`tb1001` FORCE INDEX(`PRIMARY`) WHERE ((`id` >= '8394306')) AND ((`id` <= '8416562')) LOCK IN SHARE MODE /*pt-online-schema-change 14648 copy nibble*/

    拷贝数据Chunk设置

    在pt-osc的帮助文档中,关于chunk的参数有如下:
    --chunk-index=s Prefer this index for chunking tables
    --chunk-index-columns=i Use only this many left-most columns of a --chunk-index
    --chunk-size=z Number of rows to select for each chunk copied (default 1000)
    --chunk-size-limit=f Do not copy chunks this much larger than the desired chunk size (default 4.0)
    --chunk-time=f Adjust the chunk size dynamically so each data-copy query takes this long to execute (default 0.5)
    
    当chunk-size和chunk-time两者都未指定时,chunk-size默认值为1000,chunk-time默认值为0.5S,第一次按照chunk-size来进行数据复制,然后根据第一次复制的时间动态调整chumk-size的大小,以适应服务器的性能变化,如上一次复制1000行消耗0.1S,则下次动态调整chumk-size为5000。
    如果明确指定chumk-size的值或将chunk-time指定为0,则每次都按照chunk-size复制数据。

    触发器

    pt-osc工具在源表上创建三个AFTER触发器分别对于INSERT/UPDATE/DELETE操作:
    1、DELETE触发器使用DELETE IGNORE来保证源表和新表的数据都被删除
    2、INSERT触发器使用REPLACE INTO来保证源表和新表的数据相同
    3、UPDATE触发器使用DELETE IGNORE删除新表上主键变化前的数据,再使用REPLACE INTO插入或更新新表数据。
    
    由于MySQL限制相同类型的触发器只能有一个,因此需要在运行前检查源表上是否有触发器,为保证删除和更新效率和方便和将源表数据进行分片处理,因此要求表上有主键或唯一索引,由于唯一索引不要求索引列必须为NULL,因此触发器中DELETE IGNORE操作使用<=>来判断
    如UPDATE触发器中DELETE语句为:
    DELETE IGNORE FROM `db001`.`_tb003_new` 
    WHERE !(OLD.`id` <=> NEW.`id`) 
    AND `db001`.`_tb003_new`.`id` <=> OLD.`id`
    而DELETE触发器中DELETE语句为:
    DELETE IGNORE FROM `db001`.`_tb003_new` 
    WHERE `db001`.`_tb003_new`.`id` <=> OLD.`id`

    主机性能影响

    为避免过度影响主机性能,pt-osc工具通过以下几个方面来限制:
    1、通过参数chunk-size和chunk-time控制每次拷贝数据大小
    2、通过参数max-load来检查主机当前压力,每次chunk拷贝完成后,都会运行SHOW GLOBAL STATUS LIKE 'Threads_running' 命令检查当前正在运行的Threads数量,默认Threads_running=25,如果未指定最大值,则会取当前值的120%作为最大值,如果超过阀值则会暂停数据拷贝

    从库复制延迟

    对于复制延迟比较敏感的业务,可以通过下面参数来控制复制延迟:
    --max-log
    默认为1s,每个chunks拷贝完成后,会查看check-slave-lag参数所指定的从库的延迟信息,如果超过max-log的阀值,则暂停复制数据,直到复制延迟小于max-log的阀值。检查复制延迟信息依赖于SHOW SLAVE STATUS语句中返回的Seconds_Behind_Master列的值。
    
    --check-interval
    当出现复制延迟暂停复制数据后,按照check-interval指定的时间进行周期检查复制延迟,直到延迟时间低于max-log阀值,然后恢复数据拷贝
    
    --check-slave-lag
    需要检查复制延迟的从库IP
    如果指定check-slave-lag参数,且从库无法正常连接或从库IO线程和SQL线程停止,会认为主从存在延迟,导致复制数据操作一直暂停。
    如果未指定check-slave-lag参数,默认还是会检查从库的延迟,但复制延迟不会导致数据复制暂停。

    修改主键

    通常情况下,我们会采用自增列来作为主键,优点是主键列长度小且业务无关,假设当前表使用业务主键,需要将业务主键修改为自增主键,并将业务主键修改为唯一索引,如果手工操作,则需要进行如下操作:
    1. 删除现有主键
    2. 添加新的自增主键
    3. 增加唯一索引

    而如果使用pt-osc工具,会创建一个新表来承载新的结构和数据,如果新表中只有新自增主键,那么在处理触发器捕获到的变更数据时,无法按照旧表的主键来进行处理因此造成对新表的全表扫描,导致严重的性能问题。因此应该在操作时,同时变更主键并创建唯一索引,则alter命令为:

    --alter "drop primary key,add column id int auto_increment primary key first,add unique key uk_c1(c1)"

    命令模板

    ## --recursion-method="processlist" 表示使用SHOW PROCESSLIST来获取从库信息
    ## --check-salve-lag='192.168.1.102' 表示要检查复制延迟的从库信息
    ## --check-interval=10s 表示每10秒检查一次复制从库延迟情况,默认标量为秒
    ## --max-lag=60s 表示最大从库延迟,当超过该值后,暂停数据拷贝
    ## --nocheck-replication-filters 表示不检查从库复制过滤条件
    ## --database=db001 t=tb003 表示需要变更的库和表
    ## --alter="drop column c4" 表示需要执行的变更操作
    ## --critical-load="Threads_running=512" 表示超过该阈值后放弃拷贝数据
    ## --max-load="Threads_running=256" 表示超过该阈值后暂停拷贝数据
    ## --progress=time,30 表示每30秒输出拷贝数据进度
    ## --execute表示执行
    ## --dry-run表示只进行模拟测试
    
    pt-online-schema-change 
    --host="192.168.1.101" 
    --port=3306 
    --user="root" 
    --password="root_psw" 
    --charset="utf8" 
    --recursion-method="processlist" 
    --nocheck-replication-filters 
    --check-slave-lag="192.168.1.102" 
    --check-interval=10s 
    --critical-load="Threads_running=512" 
    --max-load="Threads_running=256" 
    --max-lag=60s 
    D="db001",t="tb003" 
    --alter="add column c5 int" 
    --progress=time,30 
    --execute

    上面命令输出结果:

    Found 1 slaves:
    zabbixserver -> 192.168.1.102:3306
    Will check slave lag on:
    zabbixserver -> 192.168.1.102:3306
    Operation, tries, wait:
      analyze_table, 10, 1
      copy_rows, 10, 0.25
      create_triggers, 10, 1
      drop_triggers, 10, 1
      swap_tables, 10, 1
      update_foreign_keys, 10, 1
    Altering `db001`.`tb003`...
    Creating new table...
    Created new table db001._tb003_new OK.
    Altering new table...
    Altered `db001`.`_tb003_new` OK.
    2019-07-10T16:45:46 Creating triggers...
    2019-07-10T16:45:46 Created triggers OK.
    2019-07-10T16:45:46 Copying approximately 24257443 rows...
    Copying `db001`.`tb003`:   6% 06:44 remain
    Copying `db001`.`tb003`:  14% 05:40 remain
    Copying `db001`.`tb003`:  23% 05:00 remain
    Copying `db001`.`tb003`:  30% 04:31 remain
    Copying `db001`.`tb003`:  38% 04:01 remain
    Copying `db001`.`tb003`:  46% 03:31 remain
    Copying `db001`.`tb003`:  53% 03:00 remain
    Copying `db001`.`tb003`:  60% 02:33 remain
    Copying `db001`.`tb003`:  68% 02:03 remain
    Copying `db001`.`tb003`:  76% 01:31 remain
    Copying `db001`.`tb003`:  84% 01:01 remain
    Copying `db001`.`tb003`:  91% 00:34 remain
    Copying `db001`.`tb003`:  99% 00:03 remain
    2019-07-10T16:52:21 Copied rows OK.
    2019-07-10T16:52:21 Analyzing new table...
    2019-07-10T16:52:21 Swapping tables...
    2019-07-10T16:52:22 Swapped original and new tables OK.
    2019-07-10T16:52:22 Dropping old table...
    2019-07-10T16:52:22 Dropped old table `db001`.`_tb003_old` OK.
    2019-07-10T16:52:22 Dropping triggers...
    2019-07-10T16:52:23 Dropped triggers OK.
    Successfully altered `db001`.`tb003`.
  • 相关阅读:
    [导入]一家公司招收.net高级程序员而出得一套卷子
    [导入].NET Remoting 实现分布式数据库查询
    [导入].NET面试题
    [导入]System.Web.Mail Send Mail
    Aspnet_regsql 碰到的问题解决
    subsnic实例!
    sql coalesce()函数、datalength()函数介绍及应用
    .NET2.0 验证控件常用的正则表达式 站长分享站
    C#日期函数所有样式大全
    SubSonic的sql插入
  • 原文地址:https://www.cnblogs.com/gaogao67/p/11165070.html
Copyright © 2020-2023  润新知