温馨提示×

Linux下Hadoop安装步骤是什么

小樊
72
2025-03-10 14:59:32
栏目: 智能运维

在Linux下安装Hadoop的步骤如下:

1. 配置Linux系统基础环境

  • 查看服务器IP地址:使用命令 ip address show 查看。
  • 设置服务器主机名:使用命令 hostnamectl set-hostname master,然后使用 hostnamectl 确认主机名已更改。
  • 绑定主机名与IP地址:可以通过修改 /etc/hosts 文件来实现。

2. 安装Java环境

  • 更新软件包列表sudo apt update
  • 安装Javasudo apt install default-jdk
  • 验证Java安装java -version

3. 获取Hadoop安装包

  • 从Apache Hadoop官方网站下载最新版本的Hadoop安装包。

4. 安装Hadoop软件

  • 解压Hadoop安装包tar -zxvf hadoop-x.y.z.tar.gz -C /opt/
  • 配置环境变量
    • 编辑 ~/.bashrc 文件,添加如下内容:
      export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
      export HADOOP_HOME=/opt/hadoop
      export PATH=$PATH:$HADOOP_HOME/bin
      
    • 使环境变量生效:source ~/.bashrc

5. 配置Hadoop配置文件

  • 编辑 hadoop-env.sh:设置 JAVA_HOME
  • 编辑 core-site.xml:添加如下配置:
    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
    
  • 编辑 hdfs-site.xml:添加如下配置:
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
    </configuration>
    
  • 编辑 mapred-site.xml(如果需要):配置MapReduce框架的工作目录。

6. 启动Hadoop

  • 格式化NameNode
    cd $HADOOP_HOME/bin
    ./hdfs namenode -format
    
  • 启动Hadoop集群
    ./start-dfs.sh
    ./start-yarn.sh
    
  • 验证Hadoop安装
    • 访问 http://localhost:50070 查看HDFS状态。
    • 访问 http://localhost:8088 查看YARN资源管理页面。

以上步骤涵盖了在Linux下安装Hadoop的基本流程,包括环境配置、Java安装、Hadoop安装、配置文件设置以及集群启动。根据具体需求,可能还需要进行进一步的集群配置和管理。

0