CentOS Hadoop故障排查可按以下步骤进行:
journalctl -xe或tail -f $HADOOP_HOME/logs/*.log检查系统及Hadoop组件(如NameNode、DataNode)日志,定位错误信息。systemctl status hadoop-*命令确认关键服务(如NameNode、ResourceManager)是否正常运行,未启动则尝试重启。core-site.xml、hdfs-site.xml等配置项(如fs.defaultFS、dfs.namenode.name.dir)是否正确,确保路径、端口等参数无误。ping、traceroute测试节点间网络连通性,确保防火墙放行Hadoop所需端口(如50070、8088)。ls -l确认Hadoop目录及文件权限正确,避免因权限不足导致进程无法启动。top、htop、iostat等工具查看CPU、内存、磁盘使用情况,排除资源不足或瓶颈问题。hdfs dfsadmin -safemode leave手动退出。hadoop fsck命令检查并修复HDFS文件系统。java -version),检查Hadoop版本兼容性,必要时升级或回滚版本。参考来源: