文章目录
- 大数据框架HBase搭建
-
- ```准备工作```
-
- 1、启动hadoop
- 2、启动zookeeper
- ```搭建hbase```
-
- 1、上传解压配置环境变量
- 2、修改hbase-env.sh文件
- 3、修改hbase-site.xml文件
- 4、修改regionservers文件
- 5、同步到所有节点(如果是伪分布式不需要同步)
- 6、启动hbase集群 , 需要在master上执行
- 7、验证hbase
- ```HBase简单操作```
-
- hbase日志文件所在的目录
- 关闭集群的命令
- 通过 hbase shell 进入到hbase的命令行
- 创建表 列簇 列式数据库
- 插入数据
- 查询数据
- 退出HBase
- ```hbase 搭建失败了 不知道问题出在哪里```重置hbase
-
- 1、关闭hbase集群
- 2、删除数据 hdfs
- 3、删除元数据 zk
- 4、重新启动hbase
- 5、时间同步
大数据框架HBase搭建
准备工作
1、启动hadoopstart-all.sh
- 验证
文章图片
2、启动zookeeper
- 需要在在三台中分别启动
#启动
zkServer.sh start#查看ZK状态
zkServer.sh status
搭建hbase
1、上传解压配置环境变量tar -zxvf hbase-1.4.6-bin.tar.gz -C /usr/local/soft/vim /etc/profile
HBASE_HOME=/usr/local/soft/hbase-1.4.6
文章图片
source /etc/profile
- 输入hb按两下Tab键出现下面结果表示环境变量配置成功
文章图片
2、修改hbase-env.sh文件
vim hbase-env.sh
#增加java配置
export JAVA_HOME=/usr/local/soft/jdk1.8.0_171#关闭默认zk配置
export HBASE_MANAGES_ZK=false
3、修改hbase-site.xml文件
vim hbase-site.xml
hbase.rootdir
hdfs://master:9000/hbase
hbase.cluster.distributed
true
hbase.zookeeper.quorum
node1,node2,master
4、修改regionservers文件
#增加
node1
node2
如果是伪分布式版本,增加master即可5、同步到所有节点(如果是伪分布式不需要同步)
scp -r hbase-1.4.6/ node1:`pwd`
scp -r hbase-1.4.6/ node2:`pwd`
6、启动hbase集群 , 需要在master上执行
start-hbase.sh
文章图片
文章图片
7、验证hbase
master:16010
文章图片
HBase简单操作
hbase日志文件所在的目录/usr/local/soft/hbase-1.4.6/logs
关闭集群的命令
stop-hbase.sh
通过 hbase shell 进入到hbase的命令行
hbase shell
创建表 列簇 列式数据库
注意在HBase里删除字符按住Ctrl+删除键
create 'test','info'
文章图片
插入数据
put 'test','000','info:name','zhaosi'
put 'test','001','info:name','zhangsan'
put 'test','002','info:name','lisi'
put 'test','003','info:name','wangwu'
put 'test','0011','info:name','wangwu2'
文章图片
查询数据
get 'test','000'
文章图片
覆盖操作退出HBase
quit
hbase 搭建失败了 不知道问题出在哪里
重置hbase
1、关闭hbase集群#杀死进程
stop-hbase.sh
2、删除数据 hdfs
hadoop dfs -rmr /hbase
3、删除元数据 zk
zkCli.sh
rmr /hbase
4、重新启动hbase
start-hbase.sh
5、时间同步
yum install ntp -y ntpdate -u time.windows.com
【大数据平台搭建|9、大数据框架HBase搭建】到底啦!关注靓仔学习更多的大数据知识!o(@)o
推荐阅读
- 数据分析|教你用Excel做电商数据分析
- #|hive 表数据导出到CSV文件
- hive|Spark读取csv文件,清洗后存入Hive库中
- 大数据|spark sql 创建rdd以及DataFrame和DataSet互转
- hadoop|Hive 安装、配置、数据导入和使用
- 人工智能|屡获权威机构认 | Smartbi入选高科技高成长企业系列三大榜单
- 大数据|Flink_01_概述(个人总结)
- Hadoop|03-Flume的配置说明及案例演示