MySQL隔离级别与锁机制
- 概述
-
- 事务
- 并发事务处理带来的问题
- 事务隔离级别
- 锁详解
-
- 锁分类
-
- 表锁
- 基本操作
- 行锁
-
- 总结
- 行锁与事务隔离级别案例分析
-
- 读未提交
- 读已提交
- 可重复读
- 串行化
- 间隙锁(Gap Lock)
- 临键锁(Next-key Locks)
- 无索引行锁会升级为表锁
- 结论
- 行锁分析
-
- 查看系统库锁相关数据表
- 死锁
- 锁优化建议
概述 数据库一般都会并发执行多个事务,多个事务可能会并发对相同的一批数据进行CRUD操作,可能会出现读写、写写并发进行,需要进行同步,否则会出现更新丢失,脏读,不可重复读,幻读问题;
本质就是多个事务并发问题,数据库为了解决这些问题,设计类事务隔离级别机制,锁机制,MVCC多版本并发控制隔离机制,用一整套机制来解决多事务并发问题。
事务 事务是由一组SQL语句组成的逻辑处理单元,具有四个特定(ACID)
- 原子性:事务是一个原子操作单元,一组SQL语句要么全都执行,要么全都不执行;
- 一致性:在事务开始和完成时,数据必须保持一致状态。事务只能从一个一致状态变为另一个一致状态。
- 隔离性:保证事务不受外部并发事务操作影响,在“独立”环境里执行。这意味着事务处理过程的中间状态对外部是不可见的。
- 持久性:事务完成之后,对数据的修改时永久性的。
- 更新丢失
当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存 在,就会发生丢失更新问题–最后的更新覆盖了由其他事务所做的更新。
文章图片
两个事务执行过程中同时读取了同一行记录,然后都对这条记录进行修改,并同时写回原来的记录。导致前一个事务更新的值丢失了。
例如图中的事务1:修改完后,A写回后值应该为11,再次读取A时,本应该是11,结果是20,发生更新丢失;
- 脏读
一个事务正在对一条记录做修改,在这个事务完成并提交前,这条记录的数据就处于不一致的状态;这 时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”数据,并据此作进一步的 处理,就会产生未提交的数据依赖关系。这种现象被形象的叫做“脏读”。 一句话:事务A读取到了事务B已经修改但尚未提交的数据,还在这个数据基础上做了操作。此时,如果B 事务回滚,A读取的数据无效,不符合一致性要求。
文章图片
两个事物同时进行,事务B读取数据后进行修改,更新person的值为20,但是事务A此时读取了person的值并进行修改,由于事务B还没提交,处于不一致状态,如果执行发生错误,发生了回滚,那么事务A操作的是脏数据。
- 不可重复读
一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现其读出的数据已经发生了改 变、或某些记录已经被删除了!这种现象就叫做“不可重复读”。 一句话:事务A内部的相同查询语句在不同时刻读出的结果不一致,不符合隔离性
文章图片
事务B第一次读取person的值为10,此时事务A读取了person,并更新person的值为20,并且事务A提交完成,person=20,然后事务B读取了person为20,前后读取值不一致。
- 幻读
一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数 据,这种现象就称为“幻读”。
一句话:事务A读取到了事务B提交的新增数据,不符合隔离性
文章图片
事务B第一次查询person>10的数据,有4条数据。此时事务A插入一条新的数据,并提交了事务。然后事务B再次查询person>10的数据,有5条数据。前后数据不一致(多了数据);
文章图片
事务的隔离级别越严格,并发副作用越小,付出代价越大。因为事务隔离级别实质上就是使事务咋一定程度上“串行化”,这显然与“并发”是矛盾的。
同时,不同的应用对一致性和事务隔离程度的要求不同。许多应用对“不可重复读”和“幻读”并不敏感,更关心数据并发访问能力。
查看隔离级别:
show variables like 'tx_isolation'
设置隔离级别
set tx_isolation='REPEATABLE-READ'
MySQL的默认隔离级别是可重复读;用Spring开发时,如果不设置隔离级别默认用MySQL的隔离级别。
锁详解 锁是计算机协调多个进程或者线程并发访问某一资源的机制;
在数据库中,除了传统的计算资源(如CPU、RAM、I/O等)的争用以外,数据也是一种供需要用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发 访问性能的一个重要因素。
锁分类
- 性能上分为乐观锁与悲观锁
- 数据库操作类型上分为读锁和写锁(都是悲观锁)
读锁(共享锁):针对同一份数据,多个读操作可以同时进行而不会相互影响;
写锁(排他锁):当前写操作没有完成前,他会阻断其他写锁和读锁; - 从对数据操作的粒度分:表锁和行锁;
一般用在整表数据迁移的场景。
基本操作
--建表SQL
CREATE TABLE `mylock` (
`id` INT (11) NOT NULL AUTO_INCREMENT,
`NAME` VARCHAR (20) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE = MyISAM DEFAULT CHARSET = utf8;
--插入数据
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('1', 'a');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('2', 'b');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('3', 'c');
INSERT INTO`test`.`mylock` (`id`, `NAME`) VALUES ('4', 'd');
- 手动增加表锁
lock table 表名称 read(write),表名称2 read(write);
- 查看表上加过的锁
show open tables;
- 删除表锁
unlock tables;
- 案例分析
lock table mylock read
【MySQL|10分钟必懂-深入理解MySQL隔离级别与锁机制】
文章图片
- 当前session和其他session都可以读表;
- 当前session中插入或者更新锁定的表都会报错;
- 其他session插入或者更新则会等待;
- 案例分析(加写锁)
lock table mylock WRITE
文章图片
当前session可以对该表进行增删查改,其他Session对该表的读写操作都会被阻塞;
- 案例结论
- 对MyISAM表的读操作会加读锁,不会阻塞其他进程对同一场表的读请求,但会阻塞对同一张表的写请求。只有当读锁释放后,才能执行其他进程的写操作;
- 对MyISAM表的写操作会加写锁,会阻塞其它进程对同一张表的读写请求,只有写锁释放后,才会执行其他进程的读写操作。
InnoDB与MYISAM的最大不同有两点:
- InnoDB支持事务(TRANSACTION)
- InnoDB支持行级锁
- 行锁演示
一个session开启事务更新不提交,另一个session更新同一条记录会被阻塞,更新不同记录不会阻塞;
在执行update、insert、delete操作会自 动给涉及的表加写锁。
InnoDB在执行查询语句SELECT时(非串行隔离级别),不会加锁。
但是update、insert、delete操作会加行锁。
简而言之,就是读锁会阻塞写,但是不会阻塞读。而写锁则会把读和写都阻塞==
行锁与事务隔离级别案例分析
CREATE TABLE `account` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`balance` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lilei', '450');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('hanmei', '16000');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lucy', '2400');
读未提交
(1)打开一个客户端A,并设置当前事务模式为read uncommitted(未提交读),查询表account的初始 值:
set tx_isolation='read-uncommitted';
文章图片
(2)在客户端A的事务提交之前,打开另一个客户端B,更新表account:
文章图片
(3)这时,虽然客户端B的事务还没提交,但是客户端A就可以查询到B已经更新的数据:
文章图片
(4)一旦客户端B的事务因为某种原因回滚,所有的操作都将会被撤销,那客户端A查询到的数据其实就是脏数据.
文章图片
(5)在客户端A执行更新语句update account set balance = balance - 50 where id =1,lilei的balance没有变成350,居然是400,是不是很奇怪,数据不一致啊,如果你这么想就太天真 了,在应用程序中,我们会 用400-50=350,并不知道其他会话回滚了,要想解决这个问题可以采用读已提交的隔离级别
文章图片
读已提交
(1)打开一个客户端A,并设置当前事务模式为read committed(提交读),查询表account的所有记录:
set tx_isolation='read-committed';
文章图片
(2)在客户端A的事务提交之前,打开另一个客户端B,更新表account:
文章图片
(3)这时,客户端B的事务还没提交,客户端A不能查询到B已经更新的数据,解决了脏读问题:
文章图片
(4)客户端B的事务提交
文章图片
(5)客户端A执行与上一步相同的查询,结果 与上一步不一致,即产生了不可重复读的问题
文章图片
解决不可重复读的可以使用可重复读隔离级别
可重复读
(1)打开一个客户端A,并设置当前事务模式为repeatable read,查询表account的所有记录
set tx_isolation='repeatable-read';
文章图片
(2)在客户端A的事务提交之前,打开另一个客户端B,更新表account并提交
文章图片
(3)在客户端A查询表account的所有记录,与步骤(1)查询结果一致,没有出现不可重复读的问题
文章图片
(4)在客户端A,接着执行update account set balance = balance - 50 where id = 1,balance没有变成400-50=350,lilei的balance值用的是步骤2中的350来算的,所以是300,数据的一致性倒是没有被破坏。可重复读的隔离级别下使用了MVCC(multi-version concurrency control)机制,select操作不会更新版本号,是快照读(历史版本);insert、update和delete会更新版本号,是当前读(当前版本)。
文章图片
(5)重新打开客户端B,插入一条新数据后提交
文章图片
(6)在客户端A查询表account的所有记录,没有查出新增数据,所以没有出现幻读
文章图片
(7)验证幻读
在客户端A执行update account set balance=888 where id = 4; 能更新成功,再次查询能查到客户端B新增的数据
文章图片
串行化
(1)打开一个客户端A,并设置当前事务模式为serializable,查询表account的初始值:
set tx_isolation=‘serializable’;
文章图片
(2)打开一个客户端B,并设置当前事务模式为serializable,更新相同的id为1的记录会被阻塞等待,更新id为2的记录可以成功,说明在串行模式下innodb的查询也会被加上行锁。
如果客户端A执行的是一个范围查询,那么该范围内的所有行包括每行记录所在的间隙区间范围(就算该行数据还未被插入也会加锁,这种是间隙锁)都会被加锁。此时如果客户端B在该范围内插入数据都会被阻塞,所以就避免了幻读。
这种隔离级别并发性极低,开发中很少会用到。
文章图片
间隙锁(Gap Lock)
间隙锁,锁的是两个值之间的空隙。MySQL默认级别是可重复读。
有办法解决幻读问题吗?
间隙锁 在某些情况下可以解决幻读问题。
account表数据如下:
文章图片
那么间隙就有(3,10),(10,20),(20,正无穷)这三个区间。
在Session_1下面执行 update account set name = ‘zhuge’ where id > 8 and id <18;
则**其他Session在这个范围包含的所有行记录(包括间隙记录) 以及行记录所在的间隙 ** 里插入或者更新任何数据,即id在 (3,20]区间都无法修改数据,注意最后那个20也是包含在内的。
间隙锁是在可重复读隔离级别下才会生效。
临键锁(Next-key Locks)
Next-Key Locks是行锁与间隙锁的组合。像上面那个例子里的这个(3,20]的整个区间可以叫做临键锁。
无索引行锁会升级为表锁
- 锁主要是加在索引上,如果对非索引字段更新,行锁可能会变表锁
session1 执行:update account set balance = 800 where name = ‘lilei’;
session2 对该表任一行操作都会阻塞住
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁。并且该索引不能失效,否则都会从行锁升级为 表锁。
- 锁定某一行还可以用lock in share mode(共享锁) 和for update(排它锁)。
例如:select * from test_innodb_lock where a = 2 for update;
这样其他session只能读这行数据,修改则会被阻塞,直到锁定 行的session提交
Innodb存储引擎由于实现了行级锁定,虽然在锁定机制的实现方面所带来的性能损耗可能比表级锁定会要更高一下,但是在整体并发处理能力方面要远远优于MYISAM的表级锁定的。
当系统并发量高的时候,Innodb 的整体性能和MYISAM相比就会有比较明显的优势了。
但是,Innodb的行级锁定同样也有其脆弱的一面,当我们使用不当的时候,可能会让Innodb的整体性能表现不仅不能比MYISAM高,甚至可能会更差。
行锁分析
通过检查InnoDB_row_lock状态变量来分析系统上的行锁的争夺情况
show status like 'innodb_row_lock%';
对各个状态量的说明如下:
- Innodb_row_lock_current_waits: 当前正在等待锁定的数量
- Innodb_row_lock_time: 从系统启动到现在锁定总时间长度
- Innodb_row_lock_time_avg: 每次等待所花平均时间
- Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花时间
- Innodb_row_lock_waits:系统启动后到现在总共等待的次数
- Innodb_row_lock_time_avg (等待平均时长)
- Innodb_row_lock_waits (等待总次数)
- Innodb_row_lock_time(等待总时长)
查看系统库锁相关数据表 查看INFORMATION_SCHEMA系统库锁相关数据表
-- 查看事务
select * from INFORMATION_SCHEMA.INNODB_TRX;
-- 查看锁
select * from INFORMATION_SCHEMA.INNODB_LOCKS;
-- 查看锁等待
select * from INFORMATION_SCHEMA.INNODB_LOCK_WAITS;
-- 释放锁,trx_mysql_thread_id可以从INNODB_TRX表里查看到
kill trx_mysql_thread_id-- 查看锁等待详细信息
show engine innodb status\G;
死锁
set tx_isolation=‘repeatable-read’;
Session_1执行:select * from account where id=1 for update;
Session_2执行:select * from account where id=2 for update;
Session_1执行:select * from account where id=2 for update;
Session_2执行:select * from account where id=1 for update;
查看近期死锁日志信息:show engine innodb status\G;
大多数情况mysql可以自动检测死锁并回滚产生死锁的那个事务,但是有些情况mysql没法自动检测死锁
锁优化建议
- 锁优化建议
- 尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁
- 合理设计索引,尽量缩小锁的范围
- 尽可能减少检索条件范围,避免间隙锁
- 尽量控制事务大小,减少锁定资源量和时间长度,涉及事务加锁的sql尽量放在事务最后执行
- 尽可能低级别事务隔离
推荐阅读
- java|Mysql必知必会
- MySQL|6000字总结MySQL最基础的增删查改命令
- MySQL|MySQL数据库:入门必备基础更新了哦~~~
- mysql|搭建SSM框架并实现增删查改功能
- Java|SpringBoot入门项目-基于JPA的App日记后台系统之数据库的创建与JPA的CRUD(二)
- CGB2202|CGB2202面向对象第7天
- CGB2202|CGB2202面向对象第8天
- 源码|第11期学生住宿管理系统+程序设计文档
- 面试题|分布式事务面试题 (史上最全、持续更新、吐血推荐)