认识数据实时同步神器—Canal~
作者:幻好Canal简介
来源:恒生LIGHT云社区
随着系统业务量的不断扩大,都会使用分布式的方式,同时会有非常多的中间件,如redis、消息队列、大数据存储等,但是实际核心的数据存储依然是存储在数据库,多个数据库之前就会存在数据实时同步的问题,为了解决这个问题,需要采用一些数据实时同步中间件来解决问题。
Canal
是阿里开源的一款基于 Mysql
数据库 binlog
的增量订阅和消费组件,通过它可以订阅数据库的 binlog
日志,然后进行一些数据消费,如数据镜像、数据异构、数据索引、缓存更新等。相对于消息队列,通过这种机制可以实现数据的有序化和一致性。设计背景
早期,阿里巴巴B2B公司因为存在杭州和美国双机房部署,存在跨机房同步的业务需求。不过早期的数据库同步业务,主要是基于trigger的方式获取增量变更,不过从2010年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务,从此开启了一段新纪元。
目前内部使用的同步,已经支持mysql5.x和oracle部分版本的日志解析。
基于日志增量订阅&消费支持的业务:
- 数据库镜像
- 数据库实时备份
- 多级索引 (卖家和买家各自分库索引)
- search build
- 业务cache刷新
- 价格变化等重要业务消息
mysql主备复制实现 【认识数据实时同步神器—Canal~】
文章图片
从上层来看,复制分成三步:
master
将改变记录到二进制日志(binary log
)中(这些记录叫做二进制日志事件,binary log events
,可以通过show binlog events
进行查看);slave
将master
的binary log events
拷贝到它的中继日志(relay log
);slave
重做中继日志中的事件,将改变反映它自己的数据。
文章图片
原理相对比较简单:
canal
模拟mysql slave
的交互协议,伪装自己为mysql slave
,向mysql master
发送dump
协议mysql master
收到dump
请求,开始推送binary log
给slave
(也就是canal
)canal
解析binary log
对象(原始为byte流)
文章图片
说明:
server
代表一个canal
运行实例,对应于一个jvm
instance
对应于一个数据队列 (1个server
对应1..n个instance
)
instance
模块:eventParser
(数据源接入,模拟slave协议和master进行交互,协议解析)eventSink
(Parser和Store链接器,进行数据过滤,加工,分发的工作)eventStore
(数据存储)metaManager
(增量订阅&消费信息管理器)
文章图片
整个
parser
过程大致可分为几步:Connection
获取上一次解析成功的位置 (如果第一次启动,则获取初始指定的位置或者是当前数据库的binlog
位点)Connection
建立链接,发送BINLOG_DUMP
指令
// 0. write command number
// 1. write 4 bytes bin-log position to start at
// 2. write 2 bytes bin-log flags
// 3. write 4 bytes server id of the slave
// 4. write bin-log file nameMysql
开始推送Binaly Log
- 接收到的
Binaly Log
的通过Binlog parser
进行协议解析,补充一些特定信息
// 补充字段名字,字段类型,主键信息,unsigned类型处理 - 传递给
EventSink
模块进行数据存储,是一个阻塞操作,直到存储成功 - 存储成功后,定时记录
Binaly Log
位置
文章图片
说明:
- 数据过滤:支持通配符的过滤模式,表名,字段内容等
- 数据路由/分发:解决1:n (1个
parser
对应多个store
的模式) - 数据归并:解决n:1 (多个
parser
对应1个store
) - 数据加工:在进入
store
之前进行额外的处理,比如join
- 1.目前仅实现了
Memory
内存模式,后续计划增加本地file
存储,mixed
混合模式 - 2.借鉴了
Disruptor
的RingBuffer
的实现思路
RingBuffer
设计:文章图片
定义了3个cursor
- Put : Sink模块进行数据存储的最后一次写入位置
- Get : 数据订阅获取的最后一次提取位置
- Ack : 数据消费成功的最后一次消费位置
文章图片
instance
代表了一个实际运行的数据队列,包括了 EventPaser
,EventSink
,EventStore
等组件。抽象了
CanalInstanceGenerator
,主要是考虑配置的管理方式:manager
方式: 和你自己的内部web console/manager系统进行对接。(目前主要是公司内部使用)spring
方式:基于spring xml + properties进行定义,构建spring配置。
文章图片
server
代表了一个canal的运行实例,为了方便组件化使用,特意抽象了 Embeded
(嵌入式) / Netty
(网络访问)的两种实现Embeded
: 对latency
和可用性都有比较高的要求,自己又能hold住分布式的相关技术(比如failover
)Netty
: 基于netty
封装了一层网络协议,由canal server
保证其可用性,采用的pull模型,当然latency
会稍微打点折扣,不过这个也视情况而定。(阿里系的notify
和metaq
,典型的push/pull
模型,目前也逐步的在向pull
模型靠拢,push
在数据量大的时候会有一些问题)
canal
的 ha
分为两部分,canal server
和 canal client
分别有对应的ha实现canal server
: 为了减少对mysql dump
的请求,不同server
上的instance
要求同一时间只能有一个处于running
,其他的处于standby状态.canal client
: 为了保证有序性,一份instance
同一时间只能由一个canal client
进行get/ack/rollback
操作,否则客户端接收无法保证有序。
zookeeper
的几个特性,watcher
和 EPHEMERAL
节点(和 session
生命周期绑定)。Canal Server:
文章图片
大致步骤:
canal server
要启动某个canal instance
时都先向zookeeper
进行一次尝试启动判断 (实现:创建EPHEMERAL节点,谁创建成功就允许谁启动)- 创建
zookeeper
节点成功后,对应的canal server
就启动对应的canal instance
,没有创建成功的canal instance
就会处于standby状态 - 一旦
zookeeper
发现canal server A
创建的节点消失后,立即通知其他的canal server
再次进行步骤1的操作,重新选出一个canal server
启动instance
. canal client
每次进行connect时,会首先向zookeeper
询问当前是谁启动了canal instance
,然后和其建立链接,一旦链接不可用,会重新尝试connect.
canal server
方式类似,也是利用 zookeeper
的抢占EPHEMERAL节点的方式进行控制。应用场景
数据同步
- 微服务开发环境下,为了提高搜索效率,以及搜索的精准度,会大量使用
Redis
、Mongodb
等NoSQL
数据库,也会使用大量的Solr
、Elasticsearch
等全文检索服务。那么,这个时候,就会有一个问题需要我们来思考和解决:那就是数据同步的问题! - Canal可以将实时变化的数据库中的数据同步到
Redis
,Mongodb
或者Solr
/Elasticsearch
中。
文章图片
文章图片
推荐阅读
- Docker应用:容器间通信与Mariadb数据库主从复制
- dubbo基本认识
- “留一手”的误区认识
- 使用协程爬取网页,计算网页数据大小
- Java|Java基础——数组
- Python数据分析(一)(Matplotlib使用)
- Jsr303做前端数据校验
- 学习基金第五课:认识巴菲特赌输了的指数基金|学习基金第五课:认识巴菲特赌输了的指数基金 2018-10-12
- Spark|Spark 数据倾斜及其解决方案
- 数据库设计与优化