参考MySQL Internals手册,使用Golang写一个简单解析binlog的程序

  • GreatSQL社区原创内容未经授权不得随意使用,转载请联系小编并注明来源。
MySQL作为最流行的开源关系型数据库,有大量的拥趸。其生态已经相当完善,各项特性在圈内都有大量研究。每次新特性发布,都会有业界大咖对其进行全面审视、解读、研究,本文要讲的MySQL binlog解析也有很多的前辈开发过优秀的工具进行解析过(例如canal),本文再提旧案未免有造轮子嫌疑。
但是我作为菜鸟,通过MySQL Internals手册来研究一下MySQL的binlog的协议、event类型、存储格式,并通过MySQL Internals手册的描述来窥探MySQL的数据存储格式,并且学习Golang语言特性,应该还有一定的学习意义。
所以不揣冒昧,对解析binlog的过程编辑了以下,来梳理我对binlog一知半解,希望不会贻笑大方之家。
涉及到的工具版本信息:
IDE:GoLand 2021.1.1 试用版 Golang: go1.12.10 DB:mysql 8.0.23

MySQL Internals手册:
https://dev.mysql.com/doc/int...
Talk is cheap,show the code.
一、MySQL binlog binlog是对数据库执行的所有DDL、DML语句以事件(event)形式记录的的日志,事务安全,目的是用来进行复制和恢复使用,是MySQL重要的特性之一。
在解析binlog之前数据库需要开启binlog。
配置如下参数:
[mysqld] log-bin=mysql-bin server-id=1 binlog_format=ROW

~注:binlog_format格式还有statement和mixed格式,篇幅所限,这里只讨论RBR情况。~
解析binlog,MySQL提供了mysqlbinlog工具来解析binlog文件。但这里我是通过程序模拟一个从库(slave)角色来解析流式的binlog,所以需要创建账号,用来连接主库和请求binlog。其中:
  • 1、获取主库binlog,必须有REPLICATION SLAVE权限。
  • 2、获取binlog filename和position必须有REPLICATION CLIENT或SUPER权限
建议的授权:
CREATE USER mysqlsync@'%' IDENTIFIED BY 'mysqlsync'; GRANT REPLICATION SLAVE, REPLICATION CLIENT, SELECT ON *.* TO 'mysqlsync'@'%';

二、解析流程 解析方式时模拟从库(slave),MySQL的从库在通过ip、port、user、password连接主库后,向主库发送:
binlogPosition binlogFlag serverId

然后获取主库binlog。
程序实现解析binlog首先是连接主库注册slave身份。然后向主库发送COM_BINLOG_DUMP或COM_BINLOG_DUMP_GTID请求binlog。
COM_BINLOG_DUMP与COM_BINLOG_DUMP_GTID的区别在于COM_BINLOG_DUMP_GTID如果发送的通信包内不包含binlog-filename,主库则从已知的第一个binlog发送binlog-stream。
手册 14.9.6 介绍:
If the binlog-filename is empty, the server will send the binlog-stream of the first known binlog.
流程如下:
  • 1、连接Master数据库
    输入数据库IP:PORT,用户名密码连接到Master数据库。
  • 2、设置相关参数
    master_binlog_checksum:MySQL在5.6版本之后为binlog引入了checksum机制,从库需要与主库相关参数保持一致。
    server_id:
    解析程序相当于一个从库,需要向主库发送set注册
    @master_binlog_checksum= @@global.binlog_checksum.
  • 3、注册从节点
    告知客户端的host、port、用户名与密码、serverId 发送COM_BINLOG_DUMP向Master请求binlog stream.
  • 4、接收binlog stream
    接收binlog后,根据event type解析获取数据输出。
三、解析binlog 3.1 连接主库 程序使用tcp协议来连接主库,所以需要构建mysql协议的通信包来与主库进行三次握手。在通信包构建以及连接、发送和读取通信包,调用了kingshard的源码,见:
https://github.com/flike/king...
其中,kingshard/mysql包含MySQL的client/server协议的实现,kingshard/backend包含了基于tcp连接的三次握手获取与MySQL的连接以及发送命令,获取并解析结果集等。
协议内容在手册中可参看:
https://dev.mysql.com/doc/int...
程序中调用前先引入:
import ( "github.com/flike/kingshard/mysql" "github.com/flike/kingshard/backend" )

声明一个普通连接函数,返回参数为:连接结构体(struct)以及三个字符串,对应连接,地址,账号,密码。
func newConn(addr string, user string, pass string) *backend.Conn { c := new(backend.Conn) if err := c.Connect(addr, user, pass, ""); err != nil { fmt.Println("Connect failed ____________________") } else { fmt.Println("Connect success ____________________") } return c }

有了上面的连接函数,就可以在main函数中调用newConn函数来获取一个连接,地址,账户,密码。
addr := "127.0.0.1:3306" user := "mysqlsync" pass := "mysqlsync"c := newConn(addr, user, pass)

3.2 设置checksum MySQL在5.6之后版本为binlog引入了checksum机制,例如crc32,我们的程序作为mysql slave,需要与服务端相关参数保持一致,需要执行:set @master_binlog_checksum= @@global.binlog_checksum 。
使用获取的连接执行设置checksum:
_, err := c.Execute("set @master_binlog_checksum= @@global.binlog_checksum") if err != nil { fmt.Println(err) }

3.3 获取binlog当前的binlog_filename,binlog_pos 向master发送show master status语句查询当前的binlog_filename,binlog_pos。调用的ShowMasterStatus是查询主库当前的binlog_fileneme和binlog_pos。
show master status结果集的第一行第一列为inlog_file,第一行第二列为binlog_pos,返回结果如下:
mysql> show master status; +---------------+----------+--------------+------------------+--------------------------------------------+ | File| Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set| +---------------+----------+--------------+------------------+--------------------------------------------+ | binlog.000007 |192 ||| bd3f8dcf-c9d2-11eb-9a2d-080027dcd936:1-278 | +---------------+----------+--------------+------------------+--------------------------------------------+ 1 row in set (0.00 sec)

在main函数中添加调用,来接收获取到的binlog_filename,binlog_pos。代码如下:
binlogFileV, binlogPosV, err := c.ShowMasterStatus("show master status") if err != nil { panic(err) }

其中ShowMasterStatus函数代码为获取结果集的第一行的前两列并返回:
func (c *Conn) ShowMasterStatus(com string) (string, uint64, error) { var res *mysql.Result res, err := c.exec(com) if err != nil { panic(err) } var n = len(res.Resultset.Values) if n == 1 { fileStr, _ := res.Resultset.GetValue(0, 0) posStr, _ := res.Resultset.GetValue(0, 1) fileStrV, okf := fileStr.(string)if !okf { panic(err) }posStrV, okp := posStr.(uint64) if !okp { panic(err) } return fileStrV, posStrV, nil } return "", 0, fmt.Errorf("invalid resultset") }

3.4 封装COM_BINLOG_DUMP通信packet 获得了Master的binlog_filename和binlog_pos,通过发送COM_BINLOG_DUMP到Matser请求binlog。在internal手册中,COM_BINLOG_DUMP解释:
https://dev.mysql.com/doc/int...
1[12] COM_BINLOG_DUMP 4binlog-pos 2flags 4server-id string[EOF]binlog-filename

此时,需要我们自己来封装packet,在组成发送到Master通信的packet中,第1个字节位置存储COM_BINLOG_DUMP标识,第2到第5字节存储binlog-pos。
第6到第7字节存储slave的server-id,剩余变长字节用来存储binlog-filename。
在main函数中,创建字节数组,用获取到的binlog-filename、binlog-pos,与COM_BINLOG_DUMP、server-id组成请求binlog通信packet向Master请求binlog。
在main函数中增加如下代码:
binlogFile := []byte(binlogFileV) var binlogFlag uint16 = 0 var serverId uint32 = 698148981length := len(binlogFile) data := make([]byte, 1+4+2+4+length)data[0] = mysql.COM_BINLOG_DUMPdata[1] = byte(binlogPosV & 0xFFFFFFFF) // binlogPosV & 0xFFFFFFFFuint64 --> uint32 data[2] = byte((binlogPosV & 0xFFFFFFFF) >> 8) data[3] = byte((binlogPosV & 0xFFFFFFFF) >> 16) data[4] = byte((binlogPosV & 0xFFFFFFFF) >> 24)data[5] = byte(binlogFlag) data[6] = byte(binlogFlag >> 8)data[7] = byte(serverId) data[8] = byte(serverId >> 8) data[9] = byte(serverId >> 16) data[10] = byte(serverId >> 24)copy(data[1+4+2+4:], binlogFile)

【参考MySQL Internals手册,使用Golang写一个简单解析binlog的程序】至此,请求binlog的packet组装完成,将其发送给Master,Master就会持续不断向本程序通信使用的IP和端口发送binlog network stream,除非遇到命令停止或者网络问题中断。
在main函数中增加调用BinlogDump函数请求binlog stream的代码:
c.BinlogDump(data, addr, user, pass)

下面就是main函数调用的请求binlog的函数(此为部分,后续该函数中还将增加解析binlog代码):
func (c *Conn) BinlogDump(arg []byte, addr string, user string, pass string) ([]byte, error) { if err := c.writeCommandBuf(arg[0], arg[1:]); err != nil { fmt.Println("WriteCommandBuf failed") } else { fmt.Println("WriteCommandBuf success") } }

其中writeCommandBuf函数是根据tcp通信协议封装packet:
func (c *Conn) writeCommandBuf(command byte, arg []byte) error { c.pkg.Sequence = 0 length := len(arg) + 1 data := make([]byte, length+4) data[4] = command copy(data[5:], arg) return c.writePacket(data) }

3.5 解析event MySQL Binlog的event packet分为event header和event data两部分。在不同的Binlog Version中event header长度不同。
在MySQL 5.0.0+版本中,使用的是Version 4,其event header占用字节长度是19。event data则根据event类型不同,占用字节长度也不尽相同,后文会对部分event进行解析。
binlog header的组成在internal手册中解释:
https://dev.mysql.com/doc/int...
4timestamp 1event type 4server-id 4event-size if binlog-version > 1: 4log pos 2flags

在binlog的event header之前,使用一个字节位来存储packet标识,包含OK_Packet,EOF_Packet。EOF_Packet用来标识一个查询操作的结束,在MySQL 5.7.5以后的版本已经过期。手册中对此解释:
These rules distinguish whether the packet represents OK or EOF:
OK: header = 0 and length of packet > 7
EOF: header = 0xfe and length of packet < 9
详细请参考:https://dev.mysql.com/doc/int...
根据手册介绍,我们对event stream进行接收、解析。对上文中的BinlogDump函数进行扩展,golang没有提供while循环,这里使用for循环持续接收binlog event。
增加的解析event header的代码:
func (c *Conn) BinlogDump(arg []byte, addr string, user string, pass string) ([]byte, error) { if err := c.writeCommandBuf(arg[0], arg[1:]); err != nil { fmt.Println("WriteCommandBuf failed") } else { fmt.Println("WriteCommandBuf success") } for { data, err := c.readPacket() if err != nil { return nil, err }if data[0] == mysql.EOF_HEADER && len(data) < 9 { fmt.Println(" ReadEOF Success" + " Length: " + strconv.Itoa(len(data))) return nil, nil }if data[0] == mysql.OK_HEADER { if _, err := c.handleOKPacket(data); err != nil { fmt.Println(" ReadOk failed" + " length: " + strconv.Itoa(len(data))) return nil, err } else { timeStamp := data[1:5] eventType := data[5] serverId := data[6:10] eventSize := data[10:14] logPos := data[14:18] flags := data[18:20] } } } }

这样,就完成了对event header的解析,这里获得的重要信息就是event type,这将决定后续对event的解析方式。
根据eventType,就可以event data进行解析了。
MySQL binlog中,共有三十几种event type,在MySQL 8.0.23中,在开启GTID时,执行一个事务,在binlog中会写入以下几种event:
  • GTID_LOG_EVENT:包含last_committed,sequence_number等组提交信息的event。
  • QUERY_EVENT:在binlog_format=statement时,执行的语句即存储在QUERY_EVENT中,例如BEGIN、START TRANSACTION等。
  • ROWS_QUERY_LOG_EVENT:记录原始SQL语句,并包含语句对应的行变更详细内容
  • TABLE_MAP_EVENT:包含事务涉及的表的ID和内部结构定义信息
  • WRITE_ROWS_EVENT_V2:MySQL 5.6.x以后版本的ROWS_EVENT
  • UPDATE_ROWS_EVENT_V2:MySQL 5.6.x以后版本的ROWS_EVENT
  • DELETE_ROWS_EVENT_V2:MySQL 5.6.x以后版本的ROWS_EVENT
  • XID_EVENT:用来标识xa事务的,在两阶段提交中,当执行commit时,会在binlog中记录XID_EVENT
3.5.1 筛选event(对事务涉及的event进行解析)
在本文中,着重对:
  • QUERY_EVENT
  • TABLE_MAP_EVENT
  • WRITE_ROWS_EVENT_V2
  • UPDATE_ROWS_EVENT_V2
  • DELETE_ROWS_EVENT_V2
几个类型的event进行解析,也是事务涉及到的几种event type。
在BinlogDump函数中的OK_HEADER判断中增加golang的switch代码,来判断过滤event type,便于后面的解析。switch示例如下:
switch eventType { case mysql.XID_EVENT: fmt.Printf("EVENT TYPE: %v\n", "XID_EVENT") default: fmt.Printf("EVENT TYPE: %v\n", "This event will ignored!") }

在每一个包含event的packet中,第1个字节为OK_Packet标识(值为0),第2-19字节为event header,而第20以后的字节则为event data部分。
在程序中增加两个全局变量schema,table:
var schema string // global para var table string// global para

3.5.2 解析QUERY_EVENT
首先对 QUERY_EVENT 进行解析。在 QUERY_EVENT 中存储DDL及begin等语句,部分信息略过没有解析。代码解析如下:case mysql.QUERY_EVENT: fmt.Printf("EVENT TYPE: %v\n", "QUERY_EVENT") pos := 20 // threadId := data[20:24]// 4 bytes. // createTime := data[24:28] // 4 bytes. pos += 8 schemaLen := data[pos : pos+1] // 1 byte. // errorCode := data[29:31]// 2 bytes. pos += 3 staVarLen := data[pos : pos+2] // 2 bytes (not present in v1, v3). pos += 2 //statusVar := data[33 : 33+Byte2Int(staVarLen)] database := data[pos+utils.Byte2Int(staVarLen) : pos+utils.Byte2Int(staVarLen)+utils.Byte2Int(schemaLen)] query := data[pos+utils.Byte2Int(staVarLen)+utils.Byte2Int(schemaLen)+1:] schema = string(database) sql = string(query)fmt.Printf("SCHEMA: %v\n", schema) fmt.Printf("SQL: %v\n", sql)

解析QUERY_EVENT,主要获取涉及到的DDL等语句。
3.5.3 解析TABLE_MAP_EVENT
对TABLE_MAP_EVENT进行解析,获取操作的schema、table。
MySQL在binlog中的 TABLE_MAP_EVENT 记录了操作涉及的schema和table名,但未记录表的column信息。
在正常的主从同步中,这些表的column信息是可以从slave的数据字典中查询到的。但是程序模拟的slave则需要通过schema和table名查询Master来获取这些信息。
当然为了避免每次解析都要查询Master,也可以对其进行缓存。为了减少程序复杂度,本文没有连接Master获取column信息。
TABLE_MAP_EVENT的Payload信息在手册中描述:
https://dev.mysql.com/doc/int...
post-header: if post_header_len == 6 { 4table id } else { 6table id } 2flagspayload: 1schema name length stringschema name 1[00] 1table name length stringtable name 1[00] lenenc-intcolumn-count string.var_len [length=$column-count] column-def lenenc-strcolumn-meta-def nNULL-bitmask, length: (column-count + 8) / 7

根据描述我们解析第28个字节获取schema名称长度(schema name length),在然后根据长度解析出schema名称。
根据手册再顺延顺序向后,用相同的方式解析出table名称,并赋值给全局变量。
代码参考如下:
case mysql.TABLE_MAP_EVENT: fmt.Printf("EVENT TYPE: %v\n", "TABLE_MAP_EVENT") pos := 20 // tableId := data[20:26] pos += 6 pos += 2 schemaNameLen := data[pos : pos+1] pos += 1 // 1 byteschema name length schema = string(data[pos : pos+utils.Byte2Int(schemaNameLen)]) pos += utils.Byte2Int(schemaNameLen) pos += 1 // 0x00 skip 1 byte tableNameLen := data[pos : pos+1] pos += 1 // 1 bytetable name length table = string(data[pos : pos+utils.Byte2Int(tableNameLen)]) pos += utils.Byte2Int(tableNameLen) // table name pos += 1// 0x00 skip 1 bytecolumnCount := utils.Byte2Int(data[pos : pos+1]) pos += 1 // column-countcolType := data[pos : pos+columnCount]pos += columnCount// var n int var err error var metaData []byte if metaData, _, _, err = GetColumnMetaArray(data[pos:]); err != nil { return err }colMeta, err := GetMeta(metaData, columnCount, colType) if err != nil { return err }ColumnType = colType ColumnMeta = colMeta schema = string(schema) table = string(table)fmt.Printf("SCHEMA: %v\n", string(schema)) fmt.Printf("TABLE: %v\n", string(table)) fmt.Printf("columnCount: %v\n", columnCount) fmt.Println("-----------------") for i := 0; i < len(colType); i++ { fmt.Printf("ColumnType: %v\n", colType[i]) } fmt.Println("-----------------") fmt.Println("&&&&&&&&&&&&&&&&&") for i := 0; i < len(colMeta); i++ { fmt.Printf("ColumnMeta: %v\n", colMeta[i]) } fmt.Println("&&&&&&&&&&&&&&&&&") fmt.Printf("TABLE: %v\n", string(table))

对TABLE_MAP_EVENT解析主要是获取事务涉及的schema和table信息。

3.5.4 解析ROWS_EVENT
对 ROWS_EVENT 的三个event(
WRITE_ROWS_EVENT_V2 /
UPDATE_ROWS_EVENT_V2 /
DELETE_ROWS_EVENT_V2)进行解析。
手册对event描述如下:
https://dev.mysql.com/doc/int...
header: if post_header_len == 6 { 4table id } else { 6table id } 2flags if version == 2 { 2extra-data-length string.var_lenextra-data }body: lenenc_intnumber of columns string.var_lencolumns-present-bitmap1, length: (num of columns+7)/8 if UPDATE_ROWS_EVENTv1 or v2 { string.var_lencolumns-present-bitmap2, length: (num of columns+7)/8 }rows: string.var_lennul-bitmap, length (bits set in 'columns-present-bitmap1'+7)/8 string.var_lenvalue of each field as defined in table-map if UPDATE_ROWS_EVENTv1 or v2 { string.var_lennul-bitmap, length (bits set in 'columns-present-bitmap2'+7)/8 string.var_lenvalue of each field as defined in table-map } ... repeat rows until event-end

ROWS_EVENT的三种event,其packet的格式是相同的。第20到第26字节存储的table id,后续4字节与本文解析日志内容关联不大,跳过。
第30到31字节存储表中列的数量。其后存储的是SQL语句用到的列,是使用bitmap来存储的。
在UPDATE_ROWS_EVENT_V2中,存储了更新前后的列的数据,所以使用两个bitmap。bitmap长度按照手册描述为:
length: (num of columns+7)/8
列的数量和列是否用到bitmap组成了event的body部分,后面就是event真正存储的数据部分event data了,如果是多行,则循环排列,直至event结束。
注:这里代码中没有考虑列使用unsigned情况,在实际应用场景中这需要考虑。
在main函数的对event type的switch判断中,增加如下case:
case mysql.WRITE_ROWS_EVENT_V2, mysql.UPDATE_ROWS_EVENT_V2, mysql.DELETE_ROWS_EVENT_V2: switch eventType { case mysql.WRITE_ROWS_EVENT_V2: fmt.Printf("EVENT TYPE: %v\n", "WRITE_ROWS_EVENT_V2") case mysql.UPDATE_ROWS_EVENT_V2: fmt.Printf("EVENT TYPE: %v\n", "UPDATE_ROWS_EVENT_V2") case mysql.DELETE_ROWS_EVENT_V2: fmt.Printf("EVENT TYPE: %v\n", "DELETE_ROWS_EVENT_V2") } pos := 20 // tableId := data[pos : pos+6] // 6 bytes pos += 6 // flags := data[pos:pos+2]// 2 byte pos += 2 extraDataLen := data[pos : pos+2] // 2 bytes pos += utils.Byte2Int(extraDataLen)columnLen := data[pos : pos+1] // 1 byte fmt.Printf("columnLen: %v\n", columnLen) pos += 1 colPreBitmap1 := data[pos : pos+(utils.Byte2Int(columnLen)+7)/8] // columns-present-bitmap1, length: (num of columns+7)/8 pos += (utils.Byte2Int(columnLen) + 7) / 8var colPreBitmap2 []byte if eventType == mysql.UPDATE_ROWS_EVENT_V2 { colPreBitmap2 = data[pos : pos+(utils.Byte2Int(columnLen)+7)/8] // columns-present-bitmap2, length: (num of columns+7)/8 pos += (utils.Byte2Int(columnLen) + 7) / 8 }var rows1 [][]interface{} var rows2 [][]interface{} for pos < len(data) { // repeat rows until event-end rows1Re, n1, err := GetRows(rows1, data[pos:], utils.Byte2Int(columnLen), ColumnType, colPreBitmap1, ColumnMeta) if err != nil { return err } pos += n1 for i := 0; i < len(rows1Re); i++ { fmt.Printf("ColumnMeta: %v\n", rows1Re[i]) }if len(colPreBitmap2) > 0 { rows2Re, n2, err := GetRows(rows2, data[pos:], utils.Byte2Int(columnLen), ColumnType, colPreBitmap2, ColumnMeta) if err != nil { return err } pos += n2 for i := 0; i < len(rows2Re); i++ { fmt.Printf("ColumnMeta: %v\n", rows2Re[i]) } } }

代码中,for pos < len(data)部分就是在解析event body后对真正存储的行数据进行循环解析。

解析是调用GetRows()函数进行的,在GetRows方法中,对不同数据类型,因占用不同字节长度,以及部分类型使用了压缩算法,采用了不同的解码方式。
解码这部分代码繁杂,枯燥,本文篇幅所限就不介绍了,有兴趣可参考手册以及其他开源工具,例如阿里开源的canal等
这里对解析结果直接进行了控制台输出,在实际应用中可以格式化为json或其他格式输出,以利于阅读或者应用。
3.6 测试程序 在数据库中执行简单sql:
mysql> use wl Database changed mysql> update name set first='202106171325' where id = 48; Query OK, 1 row affected (0.00 sec) Rows matched: 1Changed: 1Warnings: 0

控制台输出:
TABLE: name EVENT TYPE: UPDATE_ROWS_EVENT_V2 columnLen: [3] ColumnMeta: [48 20210617 ] ColumnMeta: [48 202106171325 ] EVENT TYPE: XID_EVENT

可以看到UPDATE_ROWS_EVENT_V2记录了更改前后的数据值,列值为空时,记录为
至此,对binlog的简单解析就结束了。
后记
代码中,对字符串类型转换,通信packet的封装,字节解码分别参考了:
https://github.com/siddontang...
https://github.com/flike/king...
https://github.com/alibaba/canal
感谢开源社区!
Enjoy GreatSQL :)
文章推荐: GreatSQL MGR FAQ
https://mp.weixin.qq.com/s/J6...
万答#12,MGR整个集群挂掉后,如何才能自动选主,不用手动干预
https://mp.weixin.qq.com/s/07...
『2021数据技术嘉年华·ON LINE』:《MySQL高可用架构演进及实践》
https://mp.weixin.qq.com/s/u7...
一条sql语句慢在哪之抓包分析
https://mp.weixin.qq.com/s/AY...
万答#15,都有哪些情况可能导致MGR服务无法启动
https://mp.weixin.qq.com/s/in...
技术分享 | 为什么MGR一致性模式不推荐AFTER
https://mp.weixin.qq.com/s/rN...
关于 GreatSQL GreatSQL是由万里数据库维护的MySQL分支,专注于提升MGR可靠性及性能,支持InnoDB并行查询特性,是适用于金融级应用的MySQL分支版本。
Gitee:
https://gitee.com/GreatSQL/Gr...
GitHub:
https://github.com/GreatSQL/G...
Bilibili:
https://space.bilibili.com/13...
微信&QQ群:
可搜索添加GreatSQL社区助手微信好友,发送验证信息“加群”加入GreatSQL/MGR交流微信群
QQ群:533341697
微信小助手:wanlidbc
本文由博客一文多发平台 OpenWrite 发布!

    推荐阅读