在CentOS上配置HDFS与集群的关系,主要涉及节点角色规划、配置文件设置及服务启动管理,具体如下:
节点角色规划
hdfs-site.xml中dfs.namenode.name.dir指定存储路径。hdfs-site.xml中dfs.datanode.data.dir定义数据目录。hdfs-site.xml中配置dfs.namenode.secondary.http-address。hdfs-site.xml中配置dfs.namenode.shared.edits.dir为qjournal://格式的JournalNode地址列表。核心配置文件
fs.defaultFS为集群NameNode的URI(如hdfs://namenode:9000),定义临时目录hadoop.tmp.dir。dfs.replication(默认3)、NameNode和DataNode存储路径,高可用场景需启用dfs.ha.namenodes和dfs.client.failover.proxy.provider。yarn.nodemanager.aux-services为mapreduce_shuffle。集群启动与管理
hdfs namenode -format。start-dfs.sh启动HDFS服务,DataNode会自动连接NameNode。hdfs dfsadmin -report查看节点状态,或访问NameNode Web界面(默认端口50070)监控集群。高可用与扩展
hdfs-site.xml配置dfs.ha.automatic-failover.enabled为true,实现NameNode故障自动切换。hdfs-site.xml的dfs.hosts文件,并在所有节点上更新配置后重启服务。关键依赖:需先安装JDK并配置环境变量,确保节点间SSH免密登录,同时开放HDFS默认端口(如8020、50070等)。
参考来源: