弱龄寄事外,委怀在琴书。这篇文章主要讲述0003 - NameNode工作机制解析相关的知识,希望能为你提供帮助。
大数据梦工厂(0003 - NameNode工作机制解析)
1 - 基本描述NameNode 是 HDFS 的核心服务,它管理和维护着整个 HDFS 分布式文件系统,主要有以下作用:
- 负责接收客户端的操作请求;
- 负责管理文件系统命名空间(NameSpace)、集群配置信息及存储块的复制等;
- 负责文件目录树的维护以及文件对应 Block 列表的维护;
- 负责管理 Block 与 DataNode 之间的关系。
NameNode 中包含 FsImage 和 Edits 两个文件。
存储在 NameNode 节点的本地磁盘上,也就是 NameNode 的元数据信息。- FsImage: 命名空间镜像文件。记录数据块到文件的映射、目录或文件的结构、属性等信息。
- Edits: 操作日志文件。记录对所有文件的创建、删除、重命名等操作日志。
2 - 工作流程
文章图片
第一阶段 NameNode 启动
- 第一次 NameNode 格式化启动之后,首次会创建 FsImage 文件和 Edits 文件;非第一次启动,直接加载 FsImage 文件和 Edits 文件到内存中;
- 客户端对元数据执行增删改操作,并记录到 Edits 文件;
- NameNode 记录操作日志;
- NameNode 在内存中对数据进行增删改查。
- 询问 NameNode 是否需要 CheckPoint,NameNode 返回信息;
- NameNode 切割现有日志文件,新记录滚动写入新 Edits 文件;
- 滚动前的 Edits 文件和 FsImage 文件拷贝到 SecondaryNameNode;
- SecondaryNameNode 加载 Edits 文件和 FsImage 文件到内存中合并;
- 生成新的 FsImage 文件;
- 将新生成的 FsImage 文件拷贝到 NameNode;
- NameNode 将新生成的 FsImage 文件重命名替换旧的 FsImage 文件。
SecondaryNameNode 定期从 Active NameNode 将 Edits 文件和 FsImage 文件下载到本地,并加载到内存进行合并。这个合并过程称为一个
检查点(CheckPoint)
。在 NameNode 运行期间,HDFS 的所有变更操作都是写到 Edits 文件中,一段时间后,Edits 文件会变得非常大。
CheckPoint 的出现就是解决 Edits 文件不断变大的问题,并将 Edits 文件大小保持在限制范围内。
NameNode 和 SecondaryNameNode 的数据目录存储结构完全相同。当单节点集群下 NameNode 故障需要重新恢复时,可以从 SecondaryNameNode 的数据目录中将 FsImage 和 Edits ?所有文件拷贝到 NameNode 的数据目录,以恢复 NameNode 的元数据。但只能恢复大部分数据,因为有些数据可能还没做 CheckPoint。
【0003 - NameNode工作机制解析】通过修改
hadoop-hdfs-2.7.jar
里面的 hdfs-default.xml
文件的相关配置,设置相关 SecondaryNameNode 的机制。如下所示:<
property>
<
name>
dfs.namenode.checkpoint.period<
/name>
<
value>
3600<
/value>
<
description>
每隔3600秒 checkpoint 一次<
/description>
<
/property>
<
property>
<
name>
dfs.namenode.checkpoint.txns<
/name>
<
value>
1000000<
/value>
<
description>
操作次数达到 1000000 次 checkpoint 一次<
/description>
<
/property>
<
property>
<
name>
dfs.namenode.checkpoint.check.period<
/name>
<
value>
60<
/value>
<
description>
每隔60秒检查一次操作次数是否达到<
/description>
<
/property>
?
dfs.namenode.checkpoint.period
和 dfs.namenode.checkpoint.txns
这两个参数只要任意满足于其中一个,都会触发 CheckPoint。由于 CheckPoint 的过程需要消耗大量的 IO 和 CPU 资源,并且会阻塞 HDFS 的读写操作。所以,该过程不会在 NameNode 节点上触发。
- 在 Hadoop1.x 中,由 SecondaryNameNode 完成。
- 在 HA 模式下,由 StandbyNameNode 完成。
文章图片
4.1 - FsImage 文件命名空间镜像文件。记录数据块到文件的映射、目录或文件的结构、属性等信息。
1、生成路径
基于 NameNode 节点。
[root@hadoop-01 current]# ls -l /data1/dfs/nn/current/
-rw-r--r-- 1 hdfs hdfs217256 Aug 23 10:06 edits_0000000000087831638-0000000000087833535
-rw-r--r-- 1 hdfs hdfs24450 Aug 23 10:08 edits_0000000000087833536-0000000000087833700
-rw-r--r-- 1 hdfs hdfs8280 Aug 23 10:10 edits_0000000000087833701-0000000000087833756
-rw-r--r-- 1 hdfs hdfs 1048576 Aug 23 10:11 edits_inprogress_0000000000087833757
-rw-r--r-- 1 hdfs hdfs 4746069 Aug 23 08:22 FsImage_0000000000087816201
-rw-r--r-- 1 hdfs hdfs62 Aug 23 08:22 FsImage_0000000000087816201.md5
-rw-r--r-- 1 hdfs hdfs 4751462 Aug 23 09:22 FsImage_0000000000087825882
-rw-r--r-- 1 hdfs hdfs62 Aug 23 09:22 FsImage_0000000000087825882.md5
-rw-r--r-- 1 hdfs hdfs9 Aug 23 10:10 seen_txid
-rw-r--r-- 1 hdfs hdfs171 Jul 13 00:56 VERSION
2、查看文件
① 基本语法
Usage: bin/hdfs oiv [OPTIONS] -i INPUTFILE -o OUTPUTFILE
-i要转换的文件
-o转换后的文件路径
-p转换格式(XML|FileDistribution|ReverseXML|Web|Delimited)
② 转换文件
[root@hadoop-01 current]# hdfs oiv -p XML -i FsImage_0000000000087825882 -o /tmp/FsImage.xml
[root@hadoop-01 current]# ls -l /tmp/FsImage.xml
-rw-r--r-- 1 root root 19863851 Aug 23 10:32 FsImage.xml
[root@hadoop-01 current]#
[root@hadoop-01 current]# more /tmp/FsImage.xml
这样就可以看到 FsImage 文件的元数据信息。
4.2 - Edits 文件操作日志文件。记录对所有文件的创建、删除、重命名等操作日志。
① 基本语法
Usage: bin/hdfs oev [OPTIONS] -i INPUT_FILE -o OUTPUT_FILE
-i要转换的文件
-o转换后的文件路径
-p转换格式:binary(hadoop 二进制格式), xml(默认 XML 格式), stats(打印关于编辑文件的统计信息)
② 转换文件
[root@cdh-uat02 current]# hdfs oev -p xml -i edits_inprogress_0000000000087833757 -o /tmp/edits.xml
[root@cdh-uat02 current]# ls -l /tmp/edits.xml
-rw-r--r-- 1 root root 320978 Aug 23 10:47 /tmp/edits.xml
[root@hadoop-01 current]#
[root@cdh-uat02 current]# more /tmp/edits.xml
这样就可以看到 Edits 文件的元数据信息。
4.3 - seen_txid 文件记录了最后一次 CheckPoint 或者 edit 回滚(将 edits_inprogress_xxx 文件回滚成一个新的 Edits 文件)之后的 transaction ID。主要用来检查 NameNode 启动过程中 Edits 文件是否有丢失的情况。
5 - 多目录配置NameNode 可以配置多个本地(fsimage)数据目录,每个目录存放的内容相同,这样可以增加运行的可靠性。
通过修改
hadoop-hdfs-2.7.jar
里面的 hdfs-default.xml
文件的相关配置,设置相关 SecondaryNameNode 的机制。如下所示:<
property>
<
name>
dfs.namenode.name.dir<
/name>
<
value>
file://${hadoop.tmp.dir}01/dfs/name,file://${hadoop.tmp.dir}02/dfs/name<
/value>
<
/property>
::: hljs-center
扫一扫,我们的故事就开始了。
:::
文章图片
推荐阅读
- DruidDeterminePartitionsJob源码解析
- IDEA的5大调试技巧,你都会吗()
- 史上最简单的 Jmeter 跨线程组取参数值的两种办法 (不写代码)
- 你知道 JavaScript 中的 Arguments 对象都有哪些用途吗()
- Centos7.9安装教程
- Java程序员需要知道的操作系统知识汇总(持续更新)
- 面向多场景而设计的 Erda Pipeline
- 零基础上手HAL库之—为什么要选择HAL库
- 验证OSPF stub area和totally stub area对三类四类五类路由的过滤