温馨提示×

HBase与Hadoop在CentOS如何集成

小樊
51
2025-07-08 22:27:20
栏目: 智能运维

在CentOS上集成HBase与Hadoop涉及多个步骤,包括安装必要的软件包、配置环境变量、修改配置文件以及启动服务。以下是一个基本的集成步骤指南:

1. 环境准备

  • 安装Java环境

    sudo yum install java-1.8.0-openjdk-devel
    java -version
    
  • 下载并解压Hadoop

    wget https://downloads.apache.org/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
    tar -xzvf hadoop-3.3.0.tar.gz
    sudo mv hadoop-3.3.0 /usr/local/hadoop
    
  • 配置Hadoop环境变量: 编辑 /etc/profile 文件,添加以下内容:

    export HADOOP_HOME=/usr/local/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    

    使配置生效:

    source /etc/profile
    

2. 配置Hadoop

  • 修改Hadoop配置文件
    • core-site.xml

      <configuration>
          <property>
              <name>fs.defaultFS</name>
              <value>hdfs://localhost:9000</value>
          </property>
          <property>
              <name>hadoop.tmp.dir</name>
              <value>/usr/local/hadoop/tmp</value>
          </property>
      </configuration>
      
    • hdfs-site.xml

      <configuration>
          <property>
              <name>dfs.replication</name>
              <value>1</value>
          </property>
      </configuration>
      
    • mapred-site.xml

      <configuration>
          <property>
              <name>mapreduce.framework.name</name>
              <value>yarn</value>
          </property>
      </configuration>
      
    • yarn-site.xml

      <configuration>
          <property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
          </property>
      </configuration>
      

3. 安装和配置HBase

  • 下载并解压HBase

    wget https://downloads.apache.org/hbase/2.5.0/hbase-2.5.0-bin.tar.gz
    tar -xzvf hbase-2.5.0-bin.tar.gz
    sudo mv hbase-2.5.0 /usr/local/hbase
    
  • 配置HBase环境变量: 编辑 /etc/profile 文件,添加以下内容:

    export HBASE_HOME=/usr/local/hbase
    export PATH=$PATH:$HBASE_HOME/bin
    

    使配置生效:

    source /etc/profile
    
  • 修改HBase配置文件

    • hbase-env.sh

      export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
      export HBASE_MANAGES_ZK false
      export HBASE_PID_DIR=/usr/local/hbase/pid
      export HBASE_LOG_DIR=/usr/local/hbase/logs
      
    • hbase-site.xml

      <configuration>
          <property>
              <name>hbase.rootdir</name>
              <value>hdfs://localhost:9000/hbase</value>
          </property>
          <property>
              <name>hbase.cluster.distributed</name>
              <value>true</value>
          </property>
          <property>
              <name>hbase.master.port</name>
              <value>16000</value>
          </property>
          <property>
              <name>hbase.zookeeper.quorum</name>
              <value>localhost</value>
          </property>
          <property>
              <name>hbase.zookeeper.property.dataDir</name>
              <value>/usr/local/zookeeper/data</value>
          </property>
      </configuration>
      
  • 修改regionservers文件: 编辑 /usr/local/hbase/conf/regionservers 文件,添加所有HBase节点的主机名。

4. 启动Hadoop和HBase

  • 格式化HDFS

    hdfs namenode -format
    
  • 启动Hadoop集群

    start-dfs.sh
    start-yarn.sh
    
  • 启动HBase

    start-hbase.sh
    

5. 验证集成

  • 使用 hbase shell 查看HBase是否启动成功:

    hbase shell
    status 'simple'
    
  • 通过访问HBase的Web界面(通常是 http://master:16010)查看集群状态。

请注意,具体的版本和配置可能会因环境而异,建议参考官方文档进行详细配置。

0