温馨提示×

Linux下Hadoop的安装步骤是什么

小樊
60
2025-07-03 15:48:01
栏目: 智能运维

在Linux系统上安装Hadoop通常包括以下步骤:

  1. 准备工作
  • 更新系统
sudo apt-get update && sudo apt-get upgrade
  • 安装Java环境
sudo apt-get install default-jdk
  • 配置SSH无密码登录
  • 在所有节点上生成SSH密钥对:
ssh-keygen -t rsa
  • 将公钥复制到其他节点的~/.ssh/authorized_keys文件中。
  • 编辑/etc/sudoers文件,允许特定用户无需密码执行sudo命令。
  1. 下载Hadoop
  • 从Apache Hadoop官方网站下载最新稳定版本的Hadoop安装包。例如,下载Hadoop 3.x版本:
wget https://www.apache.org/dist/hadoop/common/hadoop-3.4.0/hadoop-3.4.0.tar.gz
  1. 解压并移动到合适的目录
  • 解压下载的Hadoop压缩包到你选择的目录,例如/usr/local/
tar -xzvf hadoop-3.4.0.tar.gz -C /usr/local/
  • 重命名解压后的目录(可选):
sudo mv hadoop-3.4.0 /usr/local/hadoop-3.4.0
  1. 配置环境变量
  • 编辑~/.bashrc/etc/profile文件,添加以下内容:
export HADOOP_HOME=/usr/local/hadoop-3.4.0
export PATH=$PATH:$HADOOP_HOME/bin
  • 使配置生效:
source ~/.bashrc
  1. 配置Hadoop
  • 编辑Hadoop的配置文件,通常位于$HADOOP_HOME/etc/hadoop目录下。
  • core-site.xml:配置默认文件系统。
  • hdfs-site.xml:配置HDFS相关参数,如namenode地址、datanode数据目录等。
  • mapred-site.xml(如果需要):配置MapReduce框架。
  • yarn-site.xml(如果需要):配置YARN相关参数。
  1. 格式化NameNode
  • 在首次启动Hadoop之前,需要对NameNode进行格式化:
hdfs namenode -format
  1. 启动Hadoop集群
  • 启动HDFS和YARN服务:
start-dfs.sh
start-yarn.sh
  1. 验证安装
  • 使用以下命令检查Hadoop是否已成功安装:
hadoop version
  • 访问Web界面来确认Hadoop是否正常工作,通常是通过浏览器访问http://localhost:50070/查看HDFS的状态。

请注意,以上步骤是一个基本的安装流程,实际部署可能需要考虑集群规模、网络配置等因素,并可能涉及到Zookeeper、Hive等其他组件的安装。

0