cdhhbasemasterha的简单介绍

Cloudera的CDH和Apache的Hadoop的区别Apache通常理解为Apache软件基金会(也就是Apache Software Foundation,简称为ASF),是专门为运作一个开源软件项目的Apache 的团体提供支持的非盈利性组织软件基金会 。
Cloudera Hadoop是Cloudera发布的Hadoop版本 。由于Hadoop非常受客户欢迎 , 许多公司都推出了自己的Hadoop版本,一些公司也围绕Hadoop开发了产品 。在Hadoop生态系统中,Cloudera是最大最著名的公司 。
Hadoop属于一个能够对大量数据进行分布式处理的软件框架 。Hadoop 以一种可靠、高效、可伸缩的方式进行数据处理 。Hadoop的发行版除了有Apache hadoop外cloudera,hortonworks,mapR,DKhadoop等都提供了自己的商业版本 。
http://wenku.baidu.com/link?url=x9xRWvuZuUMFKgN9McNY4DSAGXCi3dlUFMtnDE-Lg39_VeOUgUkm9L_1M4g1JID6vtVxO8jfvizkmZADdlpuEOo5ICEF_M92Eo9uB2fhmE_ 这个 。
Apache,CDH和Cloudera三者有什么区别Hortonworks Hadoop区别于其他的Hadoop发行版(如Cloudera)的根本就在于,Hortonworks的产品均是百分之百开源 。Cloudera有免费版和企业版,企业版只有试用期 。apache hadoop则是原生的hadoop 。
Cloudera是一家Hadoop数据管理软件与服务提供商,Cloudera公司对Hadoop包装后的发行版 , 简称为CDH(Cloudera Distribution Hadoop) 。
Cloudera Hadoop是Cloudera发布的Hadoop版本 。由于Hadoop非常受客户欢迎,许多公司都推出了自己的Hadoop版本,一些公司也围绕Hadoop开发了产品 。在Hadoop生态系统中,Cloudera是最大最著名的公司 。
“Apache”,“CDH”和“Cloudera”三者有什么区别?1、Hortonworks Hadoop区别于其他的Hadoop发行版(如Cloudera)的根本就在于,Hortonworks的产品均是百分之百开源 。Cloudera有免费版和企业版,企业版只有试用期 。apache hadoop则是原生的hadoop 。
2、Apache通常理解为Apache软件基金会(也就是Apache Software Foundation,简称为ASF) , 是专门为运作一个开源软件项目的Apache 的团体提供支持的非盈利性组织软件基金会 。
3、在Hadoop生态系统中,Cloudera是最大最著名的公司 。到目前为止,CDH共有五个版本 , 其中前两个版本已经不再更新,最近的两个是CDH5,它是从Apache Hadoopversion2.0.0演变而来的 。CDH5将每隔一段时间更新一次 。
4、执行:cd $HADOOP_HOME/lib/native file libhadoop.so.0.0 Hadoop属于一个能够对大量数据进行分布式处理的软件框架 。Hadoop 以一种可靠、高效、可伸缩的方式进行数据处理 。
配置完全分布式hadoop,yarn,为什么slave上不能启动nodemanager1、在一个TaskTracker上 , 只能启动一个Map Task或一个Reduce Task,否则启动时会有端口冲突 。
2、配置hosts文件 , 将主机名和对应IP地址映射 。如图中Master、Slave1和Slave2是我们要搭建分布式环境的机器 。Master为主机 , Slavex为从机 。
3、reboot重启该节点,然后重新启动nodemanager服务看看 。
4、解决办法 :yarn-site.xml中的内存参数(yarn.nodemanager.resource.memory-mb)设置的问题,好像不能设置1G以下的(2g最好) 。
5、出现这种情况是由于namenode和datanode中保存的namespaceID不同所引起的 。知道的可能情况是启动过集群后,又重新执行了hadoop namenode -format导致的 。
六脉神剑之CDH运维手册可以看到由于数据都挂载在根目录,而home、data目录却有大量空间,故在home目录下创建dfs、log , 并将根目录下/dfs,/var/log下关于cdh的文件或目录mv到/home下 , 并做软链接 , 然后启动服务就ok了 , 记得mv前停止服务 。
搭建spark伪分散式需要先搭建hadoop吗搭建Spark伪分布式不需要Hadoop,因为可以直接从本地读文件 。完全分布式环境需要搭建Hadoop,主要是因为,需要使用HDFS来做分布式存储 。

推荐阅读