JAVA_HOME或HADOOP_HOME未正确设置,导致命令无法识别。
hadoop命令时报“command not found”或“JAVA_HOME is not set”错误。~/.bashrc中添加环境变量:export JAVA_HOME=/usr/lib/jvm/temurin-8-jdk-amd64
export HADOOP_HOME=/usr/local/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
然后执行source ~/.bashrc。hadoop-env.sh文件,确保JAVA_HOME路径正确。问题1:节点间通信失败
ssh-keygen和ssh-copy-id生成密钥。问题2:权限不足导致服务无法启动
chown -R hadoop:hadoop /usr/local/hadoop)。sudo或切换至hadoop用户执行命令。core-site.xml、hdfs-site.xml等配置参数错误,导致服务异常。
fs.defaultFS配置的NameNode地址错误(如拼写错误或端口不对)。dfs.replication值超过集群节点数,导致HDFS无法启动。hdfs namenode -format。问题1:内存不足导致服务崩溃
/etc/sysctl.conf中的vm.swappiness和kernel.pid_max参数,增加可用内存或进程数。yarn.nodemanager.resource.memory-mb配置值,适配节点资源。问题2:磁盘空间不足
hdfs-site.xml中dfs.datanode.data.dir和dfs.namenode.name.dir路径的磁盘空间。apt list --installed检查已安装软件,卸载冲突版本(如旧版JDK)。dpkg -r或apt remove命令移除残留包,确保环境干净。$HADOOP_HOME/logs目录),重点关注NameNode、DataNode、ResourceManager的日志。tail -f实时监控日志,定位错误关键词(如“Exception”“Error”)。注:集成前建议备份数据,优先在测试环境验证配置,避免影响生产系统。