环境准备
JAVA_HOME。安装与配置Hadoop
HADOOP_HOME。core-site.xml:设置fs.defaultFS(NameNode地址,如hdfs://namenode:9000)。hdfs-site.xml:配置数据块副本数(dfs.replication,默认3)、NameNode和DataNode数据存储路径。workers文件(或slaves),添加所有DataNode节点主机名。启动集群
hdfs namenode -format格式化元数据(首次启动需执行)。start-dfs.sh(启动NameNode和DataNode服务)。jps命令查看进程,或访问NameNode Web UI(默认端口50070/9870)。监控与状态检查
hdfs dfsadmin -report查看集群状态、节点健康度及存储使用情况。数据管理与优化
hdfs namenode -backup命令),利用副本机制(dfs.replication参数控制)保障数据安全。hdfs balancer工具平衡数据分布,避免节点负载不均。dfs.blocksize,如128MB/256MB)、副本数等参数,优化读写效率。故障处理与维护
$HADOOP_HOME/logs),定位异常(如BlockMissingException)。硬件与软件升级
| 操作 | 命令 | 说明 |
|---|---|---|
| 格式化NameNode | hdfs namenode -format |
首次启动前初始化元数据 |
| 启动集群 | start-dfs.sh |
启动NameNode和DataNode服务 |
| 查看集群状态 | hdfs dfsadmin -report |
显示节点状态、存储使用情况 |
| 数据均衡 | hdfs balancer |
重新分配数据块,平衡节点负载 |
| 设置副本数 | hdfs dfs -setrep -w 3 /path |
将指定路径文件副本数设为3 |
参考来源: