业务需求:Hadoop集群配置完成,web监控界面的50070和50030端口不需用户验证即可访问,对生产环境是不容许的,需要加上安全机制。
1、修改core-site.xml,增加如下内容,配置完成后拷贝到其他节点上。
hadoop.http.filter.initializers
org.apache.hadoop.security.AuthenticationFilterInitializer
hadoop.http.authentication.type
simple
hadoop.http.authentication.token.validity
3600
hadoop.http.authentication.signature.secret.file
/home/hadoop/hadoop-http-auth-signature-secret
hadoop.http.authentication.cookie.domain
hadoop.http.authentication.simple.anonymous.allowed
false
2、在上述配置的目录/home/hadoop/下生成文件hadoop-http-auth-signature-secret,拷贝到其他节点上。
// 此处输入自定义的webUI访问密码 ,此处设置密码为'hadoop'[hadoop@hadoop01 ~]$ echo "hadoop" > hadoop-http-auth-signature-secret
3、重启集群环境,通过正常方式(http://ip:50070/)访问web页面会报错。
HTTP ERROR 401 Problem accessing /dfshealth.jsp. Reason:
org.apache.hadoop.security.authentication.client.AuthenticationException: Anonymous requests are disallowed
4、使用正常登录方式访问webUI出现上述错误,证明Simple安全机制已启动,因此需要改变访问方式:
// 其中“hadoop“为刚才写入hadoop-http-auth-signature-secret文件的自定义密码 http://ip:50070/?user.name=hadoop
再次登录发现,可以正常访问
====================================================================
注:此处有一个bug,就是第一次登陆的时候需输入自定义密码,后面二次登陆的时候,输入密码需要不同于第一次输入的密码方可登陆。例如:
第一次登陆: http://ip:50070/?user.name=hadoop; //登陆成功
第二次登陆:
http://ip:50070/?user.name=hadoop; //登陆失败????!!!
http://ip:50070/?user.name=a; //登陆成功????!!!
【Hadoop|Hadoop集群的webUI监控界面设置Simple安全机制】
求解!!!!!!!!
推荐阅读
- 大数据|常见大数据面试话术(建议收藏)
- flink|【大数据面经系列】大数据开发(实时计算方向)面试题(一)
- Hadoop|Hadoop总结篇及面试常考点
- hadoop|dolphinscheduler涉及HDFS功能测试(三)spark task
- java|阿里大数据面试题集合(Hadoop+HBase+Spark+Zookeeper)
- hadoop各种发行版本
- 安装部署大杂烩|CentOS7安装hive(apache-hive-3.1.2-bin)
- 大数据|Spark 之 RDD转换算子
- 大数据-零基础学习|第11期(Hadoop零基础学习路线)