本文共 2190 字,大约阅读时间需要 7 分钟。
namenode: 192.168.103.4datanode1:192.168.103.15datanode2: 192.168.103.5 datanode3: 192.168.103.3操作系统: ubuntu-16.04-x64hadoop版本: apache-hadoop-2.6.5jdk版本:1.8
jdk的安装过程此处不赘述,不熟悉的话可以参考网上的资料。
为了方便配置信息的维护,我们在hadoop配置文件中使用主机名来标识一台主机,那么我们需要在集群中配置主机与ip的映射关系。
修改集群中每台主机/etc/hosts文件,添加如下内容。192.168.103.4 namenode192.168.103.15 datanode1192.168.103.5 datanode2192.168.103.3 datanode3
集群在启动的过程中需要ssh远程登录到别的主机上,为了避免每次输入对方主机的密码,我们需要对namenode配置免密码登录
在namenode上生成公钥。ssh-keygen
一路enter确认即可生成对应的公钥。
将namenode的公钥拷贝到datanode1, datanode2, datanode3节点上。
ssh-copy-id -i ~/.ssh/id_rsa.pub root@datanode1ssh-copy-id -i ~/.ssh/id_rsa.pub root@datanode2ssh-copy-id -i ~/.ssh/id_rsa.pub root@datanode3
下载hadoop 安装包,点击获取hadoop-2.6.5。
解压安装包
tar xf hadoop-2.6.5.tar.gz
修改etc/hadoop/hadoop-env.sh
export JAVA_HOME=/opt/jdk1.8.0_91
修改etc/hadoop/core-site.xml
fs.defaultFS hdfs://namenode:9000 hadoop.tmp.dir file:/opt/hadoop-2.6.5/tmp
修改etc/hadoop/hdfs-site.xml
dfs.namenode.name.dir file:/opt/hadoop-2.6.5/tmp/dfs/name dfs.datanode.data.dir file:/opt/hadoop-2.6.5/tmp/dfs/data dfs.replication 3
修改etc/hadoop/mapred-site.xml
mapreduce.framework.name yarn
修改etc/hadoop/slaves
datanode1datanode2datanode3
将配置好的hadoop安装包拷贝到其余的datanode上。
scp -r hadoop-2.6.5 root@datanode1:/opt scp -r hadoop-2.6.5 root@datanode2:/opt scp -r hadoop-2.6.5 root@datanode3:/opt
格式化分布式文件系统(在namenode节点上执行)
./bin/hadoop namenode -format
启动集群dfs
./sbin/start-dfs.sh
在namenode和datanode节点上查看进程
namenode:
root@namenode:/opt/hadoop-2.6.5# jps14941 Jps14478 NameNode14703 SecondaryNameNode
datanode1:
root@datanode1:~# jps13569 DataNode13757 Jps
datanode2:
root@datanode2:~# jps17178 Jps16970 DataNode
datanode3:
root@datanode3:~# jps4586 DataNode4815 Jps
访问hadoop 集群的web界面
http://192.168.103.4:50070/