厌伴老儒烹瓠叶,强随举子踏槐花。这篇文章主要讲述Hbase写数据,存数据,读数据的详细过程相关的知识,希望能为你提供帮助。
HBase架构
文章图片
Region-Store-ColumnFmily
的关系
逻辑分层:<
font color=red>
HRegion由一个或者多个Store组成<
/font>
Table(HBase table)
Region(Regions for the table)
Store(Store per ColumnFamily for each Region for the table)
MemStore(MemStore for each Store for each Region for the table)
StoreFile(StoreFiles for each Store for each Region for the table)
Block(Blocks within a StoreFile within a Store for each Region for the table)
物理分层: < font color=red> 每个store保存一个columns family< /font>
文章图片
一、写操作1、
Client
写入-&
gt;
存入 MemStore
,一直到MemStore满 -&
gt;
Flush
成一个 StoreFile
2、
StoreFile
文件数量增长到一定阈值 -&
gt;
触发 Compact
合并操作 -&
gt;
多个StoreFile合并成一个StoreFile,同时进行版本合并和数据删除3、当
StoreFiles Compact
后,逐步形成越来越大的StoreFile
-&
gt;
单个 StoreFile
大小超过一定阈值后,触发 Split
操作,把当前Region Split
成2个 Region
,原来的 Region
会下线,新 Split
出的2个 子Region
会被 HMaster
分配到相应的 HRegionServer
上(负载均衡),使得原先1个Region
的压力得以分流到2个 Region
上由此过程可知,
HBase
只是增加数据,有所得更新和删除操作,都是在Compact阶段做的,所以,用户写操作只需要进入到内存即可立即返回,从而保证I/O高性能。二、读操作
client-&
gt;
zookeeper-&
gt;
.ROOT-&
gt;
.META-&
gt;
用户数据表 zookeeper记录了.ROOT的路径信息(root只有一个region),.ROOT里记录了.META的region信息, (.META可能有多个region),.META里面记录了region的信息。在 HBase中,所有的存储文件都被划分成了若干个小存储块(
block
),这些小存储块在 get
或 scan
操作时会加载到内存中,他们类似于 RDBMS
中的存储单元页。 这个参数的默认大小是64K。通过以下方式设置:void setBlocksize(int s);
(注意:HBase中Hfile的默认大小就是64K跟 HDFS的块是64M没关系)HBase
顺序地读取一个数据块到内存缓存中,其读取相邻的数据时就可以在内存中读取而不需要从磁盘中再次读取,有效地减少了磁盘I/O的次数。void setBlockCacheEnabled(boolean blockCacheEnable);
这个参数默认为TRUE,这意味着每次读取的块都会缓存到内存中。但是,如果用户顺序读取某个特定的列族,最好将这个属性设置为 FALSE,从而禁止使用缓存快。
上面这样描述的原因:如果我们访问特定的列族,但是我们还是启用了这个功能,这个时候我们的机制会把我们其它不需要的列族的数据也加载到了内存中,增加了我们的负担,我们使用的条件是,我们获取相邻数据。
三、优化1、禁止自动刷写
我们有大批数据要插入时,如果我们没有禁止,
Put
实例会被逐个的传送到region
服务器,如果用户禁止了自动刷写的功能,put
操作会在写缓冲区被填满时才会被送出。2、使用扫描缓存
如果
HBase
被用作一个mapreduce
作业的输入源,请最好将作为mapreduce
作业输入扫描器实例的缓存用setCaching()
方法设置为比默认值1更大的数。使用默认值意味着map
任务会在处理每条记录时都请求region
服务器。不过,这个值要是500的话,则一次可传送500条数据到客户端进行处理,当然了这数据也是根据你的情况定的。这个是行级的。3、限定扫描范围
这个是很好理解的,比如我们要处理大量行(特别是作为
mapreduce
的输入源),其中用到scan的时候我们有Scan.addFamily()
的方法,这个时候我们如果只是需要到这个列族中的几个列,那么我们一定要精确。因为过多的列会导致效率的损失。4、关闭
resultScanner
当然了这个不能提高我们的效率,但是如果没关就会对效率有影响。
5、块缓存的用法
首先我们的块缓存是通过
Scan.setCacheBolcks()
的启动的,那些被频繁访问的行我们应该使用缓存块,但是mapreduce
作业使用扫描大量的行,我们就不该使用这个了。6、优化获取
rowkey
的方式当然用这个的前提是,我们只需要表中的
rowkey
时,才能用。7、关闭
Put
上的WAL
书上是这么说,但是我个人觉得这个功能还是不用的好,因为我们关闭了这个功能,服务器就不会把
put
写入到WAL
,而是直接写到memstore
里,这样一旦服务器出现故障,我们的数据就丢失了。8、压缩
hbase支持大量的算法,并且支持列族级别以上的压缩算法,除非有特殊原因,不然我们应该尽量使用压缩,压缩通常会带来较好的 性能。通过一些测试,我们推荐使用SNAPPY这种算法来进行我们hbase的压缩
四、
HLog
的功能
在分布式系统环境中,无法避免系统出错或者宕机,一旦HRegionServer
意外退出,MemStore中的内存数据就会丢失,引入HLog
就是防止这种情况。工作机制:每个
HRegionServer
中都会有一个 HLog
对象,HLog
是一个实现 Write Ahead Log
的类,每次用户操作写入Memstore
的同时,也会写一份数据到 HLog
文件,HLog
文件定期会滚动出新,并删除旧的文件(已持久化到 StoreFile
中的数据)。当HRegionServer
意外终止后,HMaster
会通过 Zookeeper
感知,HMaster
首先处理遗留的 HLog
文件,将不同region
的log
数据拆分,分别放到相应region
目录下,然后再将失效的region
(带有刚刚拆分的log
)重新分配,领取到这些region
的 HRegionServer
在Load Region
的过程中,会发现有历史HLog
需要处理,因此会Replay HLog
中的数据到MemStore
中,然后flush
到StoreFiles
,完成数据恢复。五、
Hbase
存储架构及Rowkey
设计的思考Region
就是 StoreFiles
,StoreFiles
里由HFile
构成,HFile
里由hbase
的data
块构成,一个data块里面又有很多keyvalue
对,每个keyvalue
里存了我们需要的值。文章图片
【Hbase写数据,存数据,读数据的详细过程】从上图可以发现 一张表 有两个列族(红颜色的一个,黄颜色的一个) 一个列族有两个列
从图中可以看出,这就是列式数据库的最大特点: 同一个列族的数据在在一起的,我们还发现如果是有多个版本。最后我们还发现里面存了这样的值
r1: rowkey,cf1:column Family,c1:qualiter(列),t1: versionId(版本号),value值
(最后一幅图说明的是value值可以存放的位置)。通过这样的看法,我们发现如果我们设计表的时候把这几个东西:r1: rowkey,cf1:column Family,c1:qualiter(列)
的 名字取短 一点是不是会节省存储空间!倒数第二张图,字段筛选的效率从左到右明显下降,所以在
keyvalue
的设计时用户可以考虑把一些重要的筛选信息左移到合适的位置,从而在不改变数 据量的情况下,提高查询性能。那么简单的说就是用户应当尽量把查询维度或信息存储在行健中,因为它筛选数据的效率最高。得到上面的认识后,我们应该还要会有这样的觉悟:
HBase
的数据会被顺序的存储到一个特定的范围(Region
根据Rowkey
切分),因此会一直存到同一Region
上,由于一个Region
只能由一个RegionServer
管理,这样我们老是添加到同一个Region
上,<
font color=red>
会造成读写热点<
/font>
,从而使集群性能下降。解决办法: 也是就是
Rowkey
的设计Rowkey散列
: 比如我们 有9台服务器,那么我们就回去当前时间,然后模9或者取反,加到Rowkey
前缀,这样就会被平均的分到不同的region服务器上了,这样带来的好处是,因为相连的数据 都分布到不同的服务器上了,用户可以多线程并行的读取数据,这样查询的吞吐量会提高。
put
的操作实际上是RPC
的操作,它将客户端的数据传送到服务器然后返回;
大数据量的操作:如果有个应用程序需要每秒存储上千行数据到
HBase
表中,PUT
处理就不太合适了。HBase API
配备了一个客户端的 写缓冲区。- 缓冲区负责收集
put
操作,然后调用RPC
操作一次性将put list
送往服务器。默认情况下,客户端缓冲区是禁止的。可以通过自动刷写设置为FALSE
来激活缓冲区。
//可以通过自动刷写设置为FALSE来激活缓冲区,禁止自动刷写
table.setAutoFlush(false);
//这个方法是强制将数据写到服务器
void flushCommits () throws IOException
//用户还可以根据下面的方法来配置客户端写缓冲区的大小,默认大小是 2MB
void setWritaeBufferSize(long writeBufferSize) throws IOException;
- 写缓冲区的大小,默认大小是 2MB,这个也是适中的,一般用户插入的数据不大,不过如果你插入的数据大的话,可能要考虑增大这个值。从而允许客户端更高效地一定数量的数据组成一组通 过一次
RPC
请求来执行。
- 给每个用户的
HTable
设置一个写缓冲区也是一件麻烦的事,为了避免麻烦,用户可以在Hbase-site.xml
中给用户设置一个较大的预设值。
<
property>
<
name>
hbase.client.write.buffer<
/name>
<
value>
20971520<
/value>
<
/property>
关注我的公众号【宝哥大数据】,更多干货
文章图片
推荐阅读
- Veeam实现MySQL的备份与还原
- 如何远程调试自定义开发的Flume应用
- 跟我学k8s(Deployment 控制器)
- Hive优化
- flink sql 知其所以然| 自定义 redis 数据汇表(附源码)
- 从入门到上手(什么是K8S持久卷())
- Hudi自带工具DeltaStreamer的实时入湖最佳实践
- MaxCompute执行引擎核心技术DAG揭秘
- 结合源码讲解(Kafka消费者参数配置(解释定义引用注意事项))