5步轻松优化Magpie性能:让老旧电脑也能流畅放大窗口
2026/5/3 18:13:11
tarzxvf hadoop-3.2.1.tar.gz -C /root/software/在修改配置文件之前先进入path/to/hadoop/etc/hadoop目录:
所有的配置文件都在path/to/hadoop/etc/hadoop下面,如下图:
在文件里面输入hadoop的路径
exportJAVA_HOME=/root/software/jdk1.8exportHDFS_NAMENODE_USER=rootexportHDFS_DATANODE_USER=rootexportHDFS_SECONDARYNAMENODE_USER=rootexportYARN_RESOURCEMANAGER_USER=rootexportYARN_NODEMANAGER_USER=root<!-- 在configuration标签内添加以下内容 --><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><!-- 临时文件存放位置 --><property><name>hadoop.tmp.dir</name><value>/root/software/hadoop-3.2.1/hadoopDatas/tempDatas</value></property><!-- 在configuration标签内添加以下内容 --><!-- 设置副本数量 --><property><name>dfs.replication</name><value>2</value></property><!-- namenode存放的位置,老版本是用dfs.name.dir --><property><name>dfs.namenode.name.dir</name><value>/root/software/hadoop-3.2.1/hadoopDatas/namenodeDatas</value></property><!-- datanode存放的位置,老版本是dfs.data.dir --><property><name>dfs.datanode.data.dir</name><value>/root/software/hadoop-3.2.1/hadoopDatas/datanodeDatas/</value></property><!-- 关闭文件上传权限检查 --><property><name>dfs.permissions.enalbed</name><value>false</value></property><!-- namenode运行在哪儿节点,默认是0.0.0.0:9870,在hadoop3.x中端口从原先的50070改为了9870 --><property><name>dfs.namenode.http-address</name><value>master:9870</value></property><!-- secondarynamenode运行在哪个节点,默认0.0.0.0:9868 --><property><name>dfs.namenode.secondary.http-address</name><value>master:9868</value></property><!-- 在configuration标签内添加以下内容 --><!-- 设置mapreduce在yarn平台上运行 --><property><name>mapreduce.framework.name</name><value>yarn</value></property><!-- 配了上面这个下面这个也得配, 不然跑mapreduce会找不到主类。MR应用程序的CLASSPATH--><property><name>mapreduce.application.classpath</name><value>/root/software/hadoop-3.2.1/share/hadoop/mapreduce/*:/root/software/hadoop-3.2.1/share/hadoop/mapreduce/lib/*</value></property><!-- 历史服务器端地址 --><property><name>mapreduce.jobhistory.address</name><value>master:10020</value></property><!-- 历史服务器web端地址 --><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property><!-- 在configuration标签内添加以下内容 --><!-- resourcemanager运行在哪个节点 --><property><name>yarn.resourcemanager.hostname</name><value>master</value></property><!-- nodemanager获取数据的方式 --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!-- 关闭虚拟内存检查 --><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property>删掉里面的localhost,添加以下内容
master slave1 slave2下依次创建hadoopDatas/tempDatas 、 hadoopDatas/namenodeDatas 、hadoopDatas/datanodeDatas、hadoopDatas/dfs/nn/edits、hadoopDatas/dfs/snn/name 和hadoopDatas/dfs/nn/snn/edits目录
进入hadoop安装目录下执行下面命令:
mkdir-p hadoopDatas/tempDatasmkdir-p hadoopDatas/namenodeDatasmkdir-p hadoopDatas/datanodeDatasmkdir-p hadoopDatas/dfs/nn/editmkdir-p hadoopDatas/dfs/snn/namemkdir-p hadoopDatas/dfs/nn/snn/editsscp-r /root/software/hadooproot@slave1:/root/software/scp-r /root/software/hadoop root@slave2:/root/software/vi/etc/profileexportHADOOP_HOME=/root/software/hadoop-3.2.1exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinsource/etc/profile生效之后可以在每一个节点上查看hadoop的安装版本:
hdfs namenode -format# 在master节点上进行start-all.sh mapred --daemon start historyserver(mr-jobhistory-daemon.sh start historyserver)jps是查看进程的命令
在master节点上输入jps在slave1节点上输入jps
在slave2节点上输入jps
3. MapReduce 历史服务 Web UI(任务日志查看)
默认端口:19888(3.x/2.x 通用);
访问地址:http://主节点主机名/IP:19888(例:http://master:19888);
核心查看内容:
「Completed Applications」:查看已完成的 MapReduce 任务详情、日志(大赛中评委重点检查项,验证任务可追溯);
「Job History Configuration」:查看历史服务配置是否正常。