以下是简化CentOS HDFS配置的关键步骤,聚焦核心操作,减少冗余:
/etc/profile,添加JAVA_HOME和HADOOP_HOME路径,简化为:export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
执行source /etc/profile生效。ssh-keygen -t rsassh-copy-id node2 node3 ...(替换为实际节点名)。<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value> <!-- 根据需求调整 -->
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/datanode</value>
</property>
hdfs namenode -format/usr/local/hadoop/sbin/start-dfs.sh。systemctl stop firewalld/etc/selinux/config,设置SELINUX=disabled。说明:以上步骤聚焦核心功能,省略了高级调优(如块大小、内存分配等),适合快速搭建测试环境。生产环境中需根据负载和硬件进一步优化。