#冲刺创作新星# 大数据 Hadoop 环境搭建图文详解 原创 精华
Table of Contents
- 一、虚拟机环境准备
- 二、用户及文件权限配置
- 三、JDK 安装
- 1. 卸载现有 jdk
- 2. 将 jdk、Hadoop 导入到 opt 目录的 software 文件夹下
- 3. 查看软件包是否导入成功
- 4. 解压 jdk 到 /opt/module 目录下
- 5. 配置 jdk 环境变量
- 四、Hadoop 安装(master 主机)
- 1. 进入 Hadoop 安装包路径下
- 2. 解压安装文件到 /opt/module 目录下
- 3. 查看是否解压成功
- 4. 将 Hadoop 添加到环境变量下
- 5. 修改 Hadoop 相关配置文件
- (1) 修改 Hadoop 的 slaves 文件
- (2) 修改 Hadoop 的 hadoop-env.sh 文件
- (3) 修改 Hadoop 的 core-site.xml 文件
- (4) 修改 Hadoop 的 hdfs-site.xml 文件
- (5) 修改 Hadoop 的 yarn-site.xml 文件
- (6) 修改 Hadoop 的 mapred-site.xml 文件
- (7) 复制 Hadoop 的安装目录到其它子节点
- 6. 验证(启动 Hadoop)
一、虚拟机环境准备
1. 虚拟机网络模式设置为 NAT
① 点击 “编辑虚拟机设置”
② 点击 “网络适配器” → “NAT模式” 即可。
2. 克隆虚拟机
① 右键需要克隆的虚拟机 → 管理 → 克隆。
② 选择“虚拟机中的当前状态”,点击下一步。
③ 选择“创建完整克隆”,点击下一步。
④ 更改虚拟机名称以及位置,点击下一步
⑤ 创建完成后关闭即可。
3. 修改虚拟机为静态 IP
① 查看虚拟网卡信息
输入 ifconfig
,看到可以正常使用的网卡以及相关信息。
可以看到我们这里的网卡是 ens33。
② 查看网关
在 VMware 中的虚拟网络编辑器中可以看到。
③ 修改网卡配置
输入以下命令,即可编写网卡配置。
我这里的网卡名是 ens33,则命令如下:
把有的部分注释掉,没有的部分在最后加上。
④ 修改网关配置
输入以下命令,编写网关配置。
编写以下内容。
⑤ 修改 DNS 配置
输入以下内容,编写 DNS 配置。
编写以下内容。
⑥ 重启网络服务
4. 修改主机名
① 查看本机主机名
查看本机主机名使用 hostname
即可。
② 修改主机名(CentOS 7)
使用下面的命令修改主机名。
示例:
③ 修改主机名(通用,CentOS7 与 非 CentOS7)
④ 修改 CentOS 的 hosts
使用下面的命令编辑 hosts。
在每个虚拟机的 hosts 文件后面增加自己所安装的虚拟机的 IP 地址以及主机名。
将 hosts 文件拷贝到 node1 和 node2 节点命令:
⑤ 修改 Windows 的 hosts
进入 C:\Windows\System32\drivers\etc 路径
打开 hosts 文件,填写如下内容:
保存文件,如果不行的话可以先移出来,再移回去。
5. 关闭防火墙
① 查看防火墙状态
绿的running表示防火墙开启
② 关闭防火墙
或
③ 开机禁用防火墙自启
或
④ 启动防火墙
⑤ 防火墙随系统开启启动
6. 设置 ssh 免密🔒码登录(只在 Master 这台主机操作)
① 生成密钥并拷贝到子节点
主节点执行命令 ssh-keygen -t rsa
产生密钥,一直回车执行命令。
将密钥拷贝到其他两个子节点,命令如下:
② 实现主节点 master 本地免密🔒码登录
首先进入到 /root
命令:
在进入到 ./.ssh
目录下
将公钥写入本地执行命令
二、用户及文件权限配置
1. 创建用户
2. 配置用户具有 root 权限
输入以下命令进行配置:
配置 atguigu 用户的信息:
3. 在 /opt 目录下创建文件夹
① 在 /opt 目录下创建 module、software 文件夹
② 修改 module、software 文件夹的所有者 cd
③ 查看文件归属
三、JDK 安装
1. 卸载现有 jdk
① 查询是否安装 Java
② 如果安装的版本低于 1.7,则卸载该 jdk
2. 将 jdk、Hadoop 导入到 opt 目录的 software 文件夹下
① 导入 jdk 安装包
② 导入 Hadoop 安装包
3. 查看软件包是否导入成功
4. 解压 jdk 到 /opt/module 目录下
5. 配置 jdk 环境变量
① 获取 jdk 路径
进入 jdk 的解压路径,输入以下命令即可查看 jdk 路径:
② 打开 /etc/profile 文件:
输入以下命令打开 profile 文件。
输入以下命令配置 Java 环境变量
保存退出
③ 配置 jdk 环境生效
④ 测试 jdk 是否安装成功
⑤ 重启(如果 java -version 可以用就不用重启)
四、Hadoop 安装(master 主机)
1. 进入 Hadoop 安装包路径下
2. 解压安装文件到 /opt/module 目录下
3. 查看是否解压成功
4. 将 Hadoop 添加到环境变量下
① 获取 Hadoop 安装路径
进入 Hadoop 路径,输入以下命令查看 Hadoop 安装路径。
② 打开 /etc/profile 文件
使用 vim 打开 profile 文件
编辑 Hadoop 环境
保存退出。
③ Hadoop 环境生效
④ 测试 Hadoop 是否安装成功
⑤ 重启(如果 hadoop version 可以用就不用重启)
5. 修改 Hadoop 相关配置文件
(1) 修改 Hadoop 的 slaves 文件
① 进入 /opt/module/hadoop-2.7.2/etc/hadoop 目录
② 修改该目录下的 slaves 文件
使用 vim 编辑 slaves 文件。
删除原来的内容,修改为如下内容。
(2) 修改 Hadoop 的 hadoop-env.sh 文件
① 进入 /opt/module/hadoop-2.7.2/etc/hadoop 目录
② 修改该目录下的 hadoop-env.sh 文件
添加 JAVA_HOME 路径:
(3) 修改 Hadoop 的 core-site.xml 文件
① 进入 /opt/module/hadoop-2.7.2/etc/hadoop 目录
② 修改该目录下的 core-site.xml 文件
(4) 修改 Hadoop 的 hdfs-site.xml 文件
① 进入 /opt/module/hadoop-2.7.2/etc/hadoop 目录
② 修改该目录下的 hdfs-site.xml 文件
(5) 修改 Hadoop 的 yarn-site.xml 文件
① 进入 /opt/module/hadoop-2.7.2/etc/hadoop 目录
② 修改该目录下的 yarn-site.xml 文件
(6) 修改 Hadoop 的 mapred-site.xml 文件
① 进入 /opt/module/hadoop-2.7.2/etc/hadoop 目录
② 复制 mapred-site.xml.template 为 mapred-site.xml
③ 修改该目录下的 mapred-site.xml 文件
(7) 复制 Hadoop 的安装目录到其它子节点
6. 验证(启动 Hadoop)
① 首先看下 hadoop-2.7.2 目录下有没有 tmp 文件夹。 如果没有执行一次格式化命令:
执行完格式化命令会生成 tmp 文件
② 启动 Hadoop
输入以下命令启动 Hadoop
③ 验证主节点进程
输入以下命令查看进程:
主节点进程:
- ResourceManager
- NameNode
- SecondaryNameNode
子节点进程
- DataNode
- NodeManager
④ 验证 HDFS:
浏览器登录地址:192.168.182.133:50070(ip 地址是 master 节点的地址)
出现以下界面则证明 HDFS 安装成功:
刚搭建完成,什么都没有。
PS:
如果第一次启动失败了,请重新检查配置文件或者哪里步骤少了。 再次重启的时候 需要手动将每个节点的 tmp 目录删除:
然后在<font color=“red”>主节点</font>执行以下命令格式化 namenode。
使用 hadoop 2.7.2开发是因为比较稳定吗?
这是原因之一,不过主要使比赛给的安装包是这个版本的
nice!!
了解下虚拟机下的开发
看文章感觉很专业