经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 大数据/云/AI » Hadoop » 查看文章
大数据专栏 - 基础1 Hadoop安装配置 - 能力工场-小马哥
来源:cnblogs  作者:能力工场-小马哥  时间:2021/1/11 9:07:53  对本文有异议

Hadoop安装配置

环境

1, JDK8 --> 位置: /opt/jdk8

2, Hadoop2.10: --> 位置: /opt/bigdata/hadoop210

3, CentOS 7虚拟机试验集群规划

一,安装步骤

1, 解压缩

  1. cd /opt/bigdata
  2. tar -zxvf hadoop-2.10.1.tar.gz
  3. mv ./hadoop-2.10.1 hadoop210

2, 配置

  1. cd /opt/bigdata/hadoop210/etc/hadoop/

2.1 修改hadoop-env.sh

  1. [root@node1 hadoop27]# echo $JAVA_HOME
  2. /opt/jdk8
  3. vim hadoop-env.sh
  1. export JAVA_HOME=/opt/jdk8

2.2 修改core-site.xml

  1. [root@node1 hadoop210]# pwd
  2. /opt/bigdata/hadoop210
  3. [root@node1 hadoop210]# mkdir hadoopDatas
  4. [root@node1 hadoop210]# cd /opt/bigdata/hadoop210/etc/hadoop/
  5. [root@node1 hadoop210]# vim core-site.xml
  1. <configuration>
  2. <property>
  3. <name>fs.default.name</name>
  4. <value>hdfs://node1:8020</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/opt/bigdata/hadoop210/hadoopDatas/tempDatas</value>
  9. </property>
  10. <!-- 缓冲区大小,实际工作中根据服务器性能动态调整 -->
  11. <property>
  12. <name>io.file.buffer.size</name>
  13. <value>4096</value>
  14. </property>
  15. <!-- 开启hdfs的垃圾桶机制,删除掉的数据可以从垃圾桶中回收,单位分钟 -->
  16. <property>
  17. <name>fs.trash.interval</name>
  18. <value>10080</value>
  19. </property>
  20. </configuration>

2.3 修改hdfs-site.xml

  1. [root@node1 hadoop]# cd /opt/bigdata/hadoop210/etc/hadoop/
  2. [root@node1 hadoop]# vi hdfs-site.xml
  1. <configuration>
  2. <property>
  3. <name>dfs.namenode.secondary.http-address</name>
  4. <value>node1:50090</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.http-address</name>
  8. <value>node1:50070</value>
  9. </property>
  10. <property>
  11. <name>dfs.namenode.name.dir</name>
  12. <value>file:///opt/bigdata/hadoop210/hadoopDatas/namenodeDatas</value>
  13. </property>
  14. <!-- 定义dataNode数据存储的节点位置,实际工作中,一般先确定磁盘的挂载目录,然后多个目录用,进行分割 -->
  15. <property>
  16. <name>dfs.datanode.data.dir</name>
  17. <value>file:///opt/bigdata/hadoop210/hadoopDatas/datanodeDatas</value>
  18. </property>
  19. <property>
  20. <name>dfs.namenode.edits.dir</name>
  21. <value>file:///opt/bigdata/hadoop210/hadoopDatas/nn/edits</value>
  22. </property>
  23. <property>
  24. <name>dfs.namenode.checkpoint.dir</name>
  25. <value>file:///opt/bigdata/hadoop210/hadoopDatas/snn/name</value>
  26. </property>
  27. <property>
  28. <name>dfs.namenode.checkpoint.edits.dir</name>
  29. <value>file:///opt/bigdata/hadoop210/hadoopDatas/dfs/snn/edits</value>
  30. </property>
  31. <property>
  32. <name>dfs.replication</name>
  33. <value>3</value>
  34. </property>
  35. <property>
  36. <name>dfs.permissions</name>
  37. <value>false</value>
  38. </property>
  39. <property>
  40. <name>dfs.blocksize</name>
  41. <value>134217728</value>
  42. </property>
  43. </configuration>

2.4 修改yarn-site.xml

  1. [root@node1 hadoop]# vi yarn-site.xml
  1. <configuration>
  2. <property>
  3. <name>yarn.resourcemanager.hostname</name>
  4. <value>node1</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.aux-services</name>
  8. <value>mapreduce_shuffle</value>
  9. </property>
  10. <property>
  11. <name>yarn.log-aggregation-enable</name>
  12. <value>true</value>
  13. </property>
  14. <property>
  15. <name>yarn.log-aggregation.retain-seconds</name>
  16. <value>604800</value>
  17. </property>
  18. <property>  
  19. <name>yarn.nodemanager.resource.memory-mb</name>  
  20. <value>20480</value>
  21. </property>
  22. <property>
  23. <name>yarn.scheduler.minimum-allocation-mb</name>
  24. <value>2048</value>
  25. </property>
  26. <property>
  27. <name>yarn.nodemanager.vmem-pmem-ratio</name>
  28. <value>2.1</value>
  29. </property>
  30. </configuration>

2.5 修改mapred-env.sh

  1. [root@node1 hadoop]# vi mapred-env.sh
  1. export JAVA_HOME=/opt/jdk8

2.6 修改mapred-site.xml

  1. [root@node1 hadoop]# mv mapred-site.xml.template ./mapred-site.xml
  2. [root@node1 hadoop]# vi mapred-site.xml
  1. <configuration> 
  2. <property>
  3. <name>mapreduce.job.ubertask.enable</name>
  4. <value>true</value>
  5. </property>
  6. <property>
  7. <name>mapreduce.jobhistory.address</name>
  8. <value>node1:10020</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.jobhistory.webapp.address</name>
  12. <value>node1:19888</value>
  13. </property>
  14. </configuration>

2.7 修改slaves

  1. [root@node1 hadoop]# vi slaves
  1. node1
  2. node2
  3. node3

2.8 配置Hadoop环境变量

  1. [root@node1 hadoop]# vi /etc/profile
  1. export HADOOP_HOME=/opt/bigdata/hadoop210
  2. export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$FINDBUGS_HOME/bin:$MAVEN_HOME/bin:$JAVA_HOME/bin:$PATH
  1. [root@node1 hadoop]# source /etc/profile

2.9 分发安装包

  1. [root@node1 hadoop210]# cd /opt/bigdata/hadoop210/
  2. [root@node1 hadoop210]# scp -r hadoop210 node2:$PWD
  3. [root@node1 hadoop210]# scp -r hadoop210 node3:$PWD
  4. [root@node1 hadoop210]# scp /etc/profile node2:/etc/
  5. [root@node1 hadoop210]# scp /etc/profile node3:/etc/

分别在node2,node3节点机器执行以下命令: 刷新加载/etc/profile

  1. source /etc/profile

3, 启动集群

前提: 3台机器上安装好了zookeeper, 并启动

  1. zkServer.sh start

要启动 Hadoop 集群,需要启动 HDFS 和 YARN 两个模块。 注意: 首次启动 HDFS 时,必须对其进行格式化操作。 本质上是一些清理和 准备工作,因为此时的 HDFS 在物理上还是不存在的。

在node1节点机器执行以下命令

  1. [root@node1 bigdata]# hdfs namenode -format

  1. [root@node1 bigdata]# start-dfs.sh

  1. [root@node1 bigdata]# start-yarn.sh

  1. [root@node1 bigdata]# mr-jobhistory-daemon.sh start historyserver

启动完成之后, 可以通过jsp查看

原文链接:http://www.cnblogs.com/hadoop2015/p/14260268.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号