以下是在CentOS上配置HDFS的核心步骤解析,基于单节点基础配置,高可用配置可在此基础上扩展:
安装Java
sudo yum install -y java-1.8.0-openjdk-devel
java -version。配置网络与主机名
/etc/hosts,确保节点间IP与主机名可解析(如192.168.1.100 namenode)。sudo systemctl stop firewalld
sudo systemctl disable firewalld
```。
下载并解压
/usr/local/hadoop):wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
sudo mv /usr/local/hadoop-3.3.1 /usr/local/hadoop
```。
配置环境变量
/etc/profile.d/hadoop.sh,添加:export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile.d/hadoop.sh。core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
```。
hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/data/datanode</value>
</property>
```。
格式化NameNode
hdfs namenode -format
```。
启动HDFS服务
start-dfs.sh(需在NameNode节点执行)。jps查看NameNode、DataNode进程是否运行。hdfs dfs -mkdir /user/test # 创建目录
hdfs dfs -put /local/file /user/test # 上传文件
hdfs dfs -ls /user/test # 查看文件
```。
http://namenode:50070(默认端口),查看集群状态。若需搭建高可用集群,需额外配置:
hdfs-site.xml:添加dfs.ha.namenodes、dfs.namenode.shared.edits.dir等参数,启用自动故障转移。/usr/local/hadoop/data)权限正确,建议使用hadoop用户运行服务。/etc/hosts中配置主机名映射,并在slaves文件中列出DataNode主机名。以上步骤参考自,可根据实际需求调整配置参数。