缥帙各舒散,前后互相逾。这篇文章主要讲述教程手把手教你如何搭建Hadoop单机伪集群相关的知识,希望能为你提供帮助。
概述本文将通过虚拟机搭建单机伪集群的Hadoop服务,帮助更好的学习和理解Hadoop大数据平台的运行原理。具体到每个细节,方便新手学习和理解。
文章图片
环境准备
- Linux centos 7(虚拟机)
- JDK1.8
- Hadoop 2.5+
通过以下命令查看JDK版本:
java -version
安装JDK时,首先创建一个文件夹用来存放JDK安装包,如下命令:
mkdir -p /opt/local/java/jdk
进入以上创建目录后,使用以下命令下载JDK包:
weget [https://repo.huaweicloud.com/java/jdk/8u192-b12/jdk-8u192-linux-x64.tar.gz](https://repo.huaweicloud.com/java/jdk/8u192-b12/jdk-8u192-linux-x64.tar.gz)
下载完成后,对压缩包进行解压:
tar -zxvf jdk-8u192-linux-x64.tar.gz
解压完成后,配置系统环境变量:
vi /etc/profile
向文件末尾添加以下配置参数:
# jdk1.8
export JAVA_HOME=/opt/local/java/jdk/jdk1.8.0_192
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
配置完成后保存,刷新系统配置:
source /etc/profile
最后检验JDK是否生效:
java -version
打印以下日志信息即可。
文章图片
系统配置
- 主机名配置
查看主机目前的hostname:
hostname
如果需要修改后的hostname能一直生效,则修改/etc/sysconfig/network文件,向文件新增以下参数:
NETWORKING=yes
HOSTNAME=centos001.com
【教程手把手教你如何搭建Hadoop单机伪集群】修改后,需要重启主机生效。
如果需要立即生效,可以直接使用命令:
hostname centos001.com
- 防火墙配置
- 使用命令查看防火墙运行状态:
systemctl status firewalld
- 停止运行防火墙:
service firewalld stop
- 永远停用防火墙:
systemctl disable firewalld
- Hadoop安装包准备
- 首先创建存放Hadoop安装包存放的目录:
mkdir -p /home/local/hadoop
- 然后进入创建目录,下载Hadoop安装包:
wget --no-check-certificate https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.10.1/hadoop-2.10.1.tar.gz
- 解压安装包:
tar -zxvf hadoop-2.10.1.tar.gz
- 配置Hadoop环境变量
- 为了方便后续直接使用命令行启动 Hadoop 相关服务,可以配置相关环境变量
- 进入配置文件 /etc/profile,向末尾追加以下配置
export HADOOP_HOME=/home/local/hadoop/hadoop-2.10.1/
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
- core-site.xml配置
- 向
configuration
中添加以下配置参数:
<
property>
<
name>
fs.defaultFS<
/name>
<
value>
hdfs://centos001.com:8091<
/value>
<
/property>
<
property>
<
name>
hadoop.tmp.dir<
/name>
<
value>
/home/local/hadoop/hadoop-2.10.1/data/tmp<
/value>
<
/property>
- 上述不使用ip访问而改用主机名访问,这里配置HDFS的节点访问。
hadoop.tmp.dir
是 Hadoop 文件系统依赖的基础配置,很多路径都依赖它。(如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个路径中)。- 需要提前存储目录创建好:
mkdir -p /home/local/hadoop/hadoop-2.10.1/data/tmp
- hdfs-site.xml配置
- 配置 HDFS 的 DataNode 的备份数量(默认数量为3),只单机模拟运行,配置1
<
property>
<
name>
dfs.replication<
/name>
<
value>
1<
/value>
<
/property>
- mapred-site.xml配置
- 这里配置Mapreduce的运行模式,常用的就是生产:
yarn
,测试:local
两种模式。
<
property>
<
name>
mapreduce.framework.name<
/name>
<
value>
yarn<
/value>
<
/property>
- yarn-site.xml配置
- 配置资源服务的相关运行参数
<
property>
<
name>
yarn.resourcemanager.hostname<
/name>
<
value>
centos001.com<
/value>
<
/property>
<
property>
<
name>
yarn.nodemanager.aux-services<
/name>
<
value>
mapreduce_shuffle<
/value>
<
/property>
- slaves配置
- 由于只演示单机模式,slaves文件无需配置
- 脚本参数配置
- hadoop-env.sh中需要配置JDK觉得路径:
JAVA_HOME
,Hadoop配置路径:HADOOP_CONF_DIR
- yarn-env.sh中需要配置JDK觉得路径:
JAVA_HOME
- mepre-env.sh中需要配置JDK觉得路径:
JAVA_HOME
如果第一次启动,需要先格式化 namenode
- 通过命令:
hdfs namenode -format
- 如果看到打印以下日志,则表示格式化成功
文章图片
启动Hadoop
通过以下命令启动Hadoop相关服务节点:
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
jps
查看服务是否成功启动:文章图片
启动YARN
启动 Hadoop 相关服务节点后,在启动 Yarn 相关资源管理服务:
yarn-daemon.sh start resourcemanager
yarn-daemon.sh start nodemanager
jps
查看服务是否成功启动:文章图片
验证页面
服务启动成功后,在我们的PC(windows)上,配置域名映射。打开主机的hosts文件,配置以下参数:
192.168.201.129 centos001.com
文章图片
文章图片
总结以上为单机伪集群的Hadoop搭建实践过程,为了帮助新手更好的理解和学习 Hadoop ,实践才能出真知。
有任何问题,欢迎一起讨论交流。
想向技术大佬们多多取经?开发中遇到的问题何处探讨?如何获取金融科技海量资源?
恒生LIGHT云社区,由恒生电子搭建的金融科技专业社区平台,分享实用技术干货、资源数据、金融科技行业趋势,拥抱所有金融开发者。
扫描下方小程序二维码,加入我们!
文章图片
推荐阅读
- [C++] 通用类型数组
- Java&Go高性能队列之LinkedBlockingQueue性能测试#yyds干货盘点#
- OpenHarmony 源码解析之账号子系统
- 云系统中的异常检测方法
- Spring专场「MVC容器」不看源码就带你认识核心流程以及运作原理
- 1月活动|51CTO博客#IT话题共建#,挑战7日连更!
- MyBatis 快速入门
- Go 每日一库之 gorilla/securecookie
- Spring MVC day01 请求参数问题及常用注解