Ubuntu环境下HDFS集群扩容步骤
hdfs dfsadmin -report命令确认集群健康状况(如NameNode、DataNode是否正常)、现有节点数量及存储使用情况,确保集群处于稳定状态。/user目录下的关键文件),避免因配置错误或操作失误导致数据丢失。JAVA_HOME、HADOOP_HOME等,需添加到~/.bashrc并执行source ~/.bashrc);hadoop-3.3.6.tar.gz),并设置安装目录(如/opt/hadoop)。/opt/hadoop/etc/hadoop/目录下的核心配置文件(core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、workers)复制到新节点的相同目录下。关键配置项说明:
core-site.xml:确保fs.defaultFS指向集群NameNode地址(如hdfs://master:9000);hdfs-site.xml:确认dfs.replication(副本数,建议3)、dfs.datanode.data.dir(DataNode数据存储路径,如/opt/hadoop/data/datanode)配置正确;workers文件:添加新节点的主机名或IP地址(如slave4),此文件用于集群启动时自动加载节点。ssh-keygen -t rsa),并将公钥(id_rsa.pub)复制到新节点的~/.ssh/authorized_keys文件中,确保NameNode能无密码访问新节点。hdfs --daemon start datanode命令启动DataNode进程,或通过集群启动脚本start-dfs.sh(在NameNode上执行)启动所有DataNode(包括新节点)。hdfs dfsadmin -report命令,查看输出结果中的“Live DataNodes”列表,确认新节点(如slave4)已成功加入集群。start-balancer.sh命令,启动HDFS平衡器。平衡器会自动将数据块从已有节点迁移到新节点,使集群存储利用率趋于均衡。hdfs balancer -status命令,查看平衡进度(如“Balancing is in progress”表示正在进行,“Balancing succeeded”表示完成)。平衡过程可能需要数小时,取决于数据量和集群规模。hdfs dfsadmin -report,确认新节点的状态为“Live”,且存储使用量开始增长。hadoop fs -put /local/file /test),然后执行hdfs fsck /test -files -blocks -locations命令,检查文件块是否均匀分布在新节点上。