每台主机中的/etc/hosts文件有以下配置
检查是否启动成功,输入命令jps,出现以下内容表示启动成功
(添加以下内容)
HOSTNAME=datanode2
5. 安装jdk
ping datanode2
检查是否启动成功,输入命令jps,出现以下内容表示启动成功
Hadoop版本
a). vim /etc/sysconfig/network-scripts/ifcfg-eno16777736
ping datanode1
9. 测试hadoop命令是否可以直接执行,任意目录下敲hadoop
第四步.安装jdk,rpm版的会自动配置好环境变量
修改hadoop目录名:mv hadoop-2.7.3 hadoop
vim /etc/sysconfig/network
15. 启动datanode,在另外三台机器上同时操作
第一步 ,环境准备.
b). 重启网络service network restart,ping宿主机检查是否可以ping通。若ping不通,尝试关闭宿主机和虚拟机的防火墙。
:wq保存并退出
12. 在4台机器上配置core-site.xml,使4台机器知道namenode位于哪台机器上。vim /usr/local/hadoop/etc/hadoop/core-site.xml
第二步,更改主机名
rpm -ivh hadoop-2.7.3.tar.gz,输入java -version检查是否安装成功。
hadoop 1.1.0 rpm
10. 关闭虚拟机,给该虚拟机拍快照,并复制该虚拟机三分。验证四台虚拟机,使其可以互相ping通。
192.168.10.139 datanode2
hadoop-daemon.sh start datanode
测试
export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
HOSTNAME=namenode1
hadoop有namenode和datanode,此处的master虚拟机就是一个namenode,namenode记录了所有存储到集群当中文件的信息,包括文件名,文件被分成了几块,每一块具体存放在哪一台datanode上等等一系列信息,而datanode就是存放的具体的文件。
修改主机名 namenode1,datanode1,datanode2
source etc/profile
开始安装
修改export JAVA_HOME为export JAVA_HOME=/usr/java/default
rpm -ivh jdk-7u9-linux-x64.rpm
操作系统.
注意:这里的192.168.93.2必须安装步骤1里的网关IP,100为自己设置的IP,但是192.168.93不能变!
以下所有的操作,都是用 root 身份执行
ping namenode1
重启环境变量
本文由nba买球发布,转载请注明来源
关键词: