Ubuntu环境下HDFS配置步骤(单机/伪分布式模式)
sudo apt update && sudo apt upgrade -y,确保系统软件包为最新版本。sudo apt install -y build-essential openssh-server,安装编译工具和SSH服务(后续配置免密登录需要)。sudo apt install -y openjdk-8-jdk
sudo update-java-alternatives --set java-1.8.0-openjdk
java -version # 验证安装(需显示Java 1.8版本信息)
wget命令获取安装包:wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
/usr/local),并重命名文件夹:sudo tar -xzvf hadoop-3.3.4.tar.gz -C /usr/local/
sudo mv /usr/local/hadoop-3.3.4 /usr/local/hadoop
~/.bashrc文件(用户级环境变量),添加以下内容:export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source ~/.bashrc
进入Hadoop配置目录($HADOOP_HOME/etc/hadoop),修改以下文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value> <!-- 单机模式下副本数为1 -->
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/data/datanode</value>
</property>
</configuration>
sudo mkdir -p /usr/local/hadoop/data/namenode
sudo mkdir -p /usr/local/hadoop/data/datanode
sudo chown -R $USER:$USER /usr/local/hadoop/data # 修改目录所有者为当前用户
hdfs namenode -format
start-dfs.sh脚本启动HDFS服务(包含NameNode和DataNode):start-dfs.sh
jps命令,应看到NameNode、DataNode进程。http://localhost:9870(Hadoop 3.x版本),查看文件系统状态。hdfs dfs -mkdir /user/$USER # 创建用户目录
hdfs dfs -put ~/test.txt /user/$USER/ # 上传本地文件到HDFS
hdfs dfs -ls /user/$USER # 列出目录内容
sudo ufw allow 9000 # NameNode RPC端口
sudo ufw allow 50070 # NameNode Web UI端口(Hadoop 2.x)
sudo ufw allow 9870 # NameNode Web UI端口(Hadoop 3.x)
logs目录下的日志文件(如NameNode.log),排查具体错误。