Hadoop在Ubuntu上的版本升级指南
一 升级前准备
二 标准升级步骤
步骤1 停止集群
在所有节点执行:
cd $HADOOP_HOME/sbin
./stop-yarn.sh
./stop-dfs.sh
确认进程已退出(如 jps 不再出现 NameNode/DataNode/ResourceManager/NodeManager)。
步骤2 备份关键数据与配置
tar czf /backup/hadoop-conf-$(date +%F).tgz -C $HADOOP_HOME/etc/hadoop .
rsync -av $HADOOP_HOME/dfs/name/ /backup/hadoop-nn-name-$(date +%F)/
rsync -av $HADOOP_HOME/dfs/data/ /backup/hadoop-dn-data-$(date +%F)/
步骤3 部署新版本
wget https://downloads.apache.org/hadoop/common/hadoop-
tar -xzvf hadoop-
ln -sfn /opt/hadoop-
步骤4 迁移与合并配置
cp -r $HADOOP_HOME.old/etc/hadoop/* $HADOOP_HOME/etc/hadoop/
步骤5 启动并进入升级流程(HDFS 滚动升级)
$HADOOP_HOME/sbin/hadoop-daemon.sh start journalnode
$HADOOP_HOME/bin/hdfs --daemon start namenode -upgrade
$HADOOP_HOME/bin/hdfs namenode -bootstrapStandby
$HADOOP_HOME/sbin/hadoop-daemon.sh start datanode
$HADOOP_HOME/bin/hdfs dfsadmin -upgradeProgress status
$HADOOP_HOME/bin/hdfs dfsadmin -report
$HADOOP_HOME/bin/yarn node -list
三 升级后验证与回滚
功能与数据验证
回滚与清理
四 常见问题与注意事项