经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 大数据/云/AI » Hadoop » 查看文章
3、环境搭建-Linux上hadoop的全分布配置
来源:cnblogs  作者:wangruijie  时间:2021/5/31 11:57:05  对本文有异议

安装配置hadoop和jdk

配置/usr/local/src/hadoop/etc/hadoop/下的四个文件

hdfs-site.xml
  1. <configuration>
  2. <property>
  3. <!-- DFS的名称节点在本地文件系统位置 -->
  4. <name>dfs.namenode.name.dir</name>
  5. <value>file:/usr/local/src/hadoop/dfs/name</value>
  6. </property>
  7. <property>
  8. <!-- DFS数据节点在本地文件系统位置 -->
  9. <name>dfs.datanode.data.dir</name>
  10. <value>file:/usr/local/src/hadoop/dfs/data</value>
  11. </property>
  12. <property>
  13. <!-- 缺省的块复制数量 -->
  14. <name>dfs.replication</name>
  15. <value>3</value>
  16. </property>
  17. </configuration>
core-site.xml
  1. <configuration>
  2. <property>
  3. <!-- 文件系统主机和端口 -->
  4. <name>fs.defaultFS</name>
  5. <value>hdfs://192.168.150.81:9000</value>
  6. </property>
  7. <property>
  8. <!-- 流文件缓冲区大小 -->
  9. <name>io.file.buffer.size</name>
  10. <value>131072</value>
  11. </property>
  12. <property>
  13. <!-- 临时文件夹 -->
  14. <name>hadoop.tmp.dir</name>
  15. <value>file:/usr/local/src/hadoop/tmp</value>
  16. </property>
  17. </configuration>
mapred-site.xml
  1. <configuration>
  2. <property>
  3. <!-- 取值local、classic或yarn,如果不是yarn则不使用yarn集群来实现资源分配 -->
  4. <name>mapreduce.framework.name</name>
  5. <value>yarn</value>
  6. </property>
  7. <property>
  8. <!-- 历史服务器地址端口,通过其查询已完成的Mapreduce作业 -->
  9. <name>mapreduce.jobhistory.address</name>
  10. <value>master:10020</value>
  11. </property>
  12. <property>
  13. <!-- 历史服务器web应用访问地址和端口 -->
  14. <name>mapreduce.jobhistory.webapp.address</name>
  15. <value>master:19888</value>
  16. </property>
  17. </configuration>
yarn-site.xml
  1. <configuration>
  2. <property>
  3. <!-- RM提供给客户端访问的地址,客户端通过其提交应用程序,杀死程序等 -->
  4. <name>yarn.resourcemanager.address</name>
  5. <value>master:8032</value>
  6. </property>
  7. <property>
  8. <!-- 定义历史服务器地址端口,通过其查看已完成的Mapreduce作业 -->
  9. <name>yarn.resourcemanager.scheduler.address</name>
  10. <value>master:8030</value>
  11. </property>
  12. <property>
  13. <!-- RM提供给NodeManager的地址,NM通过其向RM汇报心跳,领取任务等 -->
  14. <name>yarn.resourcemanager.resource-tracker.address</name>
  15. <value>master:8031</value>
  16. </property>
  17. <property>
  18. <!-- RM提供给管理员的访问地址,管理员通过其向RM发送管理员命令 -->
  19. <name>yarn.resourcemanager.admin.address</name>
  20. <value>master:8033</value>
  21. </property>
  22. <property>
  23. <!-- RM对web服务提供的地址。用户通过其在浏览器中查看集群各类信息 -->
  24. <name>yarn.resourcemanager.webapp.address</name>
  25. <value>master:8088</value>
  26. </property>
  27. <property>
  28. <!-- 用户自定义服务,如Map-Reduce的shuffle功能,可以在NM上扩展自己的服务 -->
  29. <name>yarn.nodemanager.aux-services</name>
  30. <value>mapreduce_shuffle</value>
  31. </property>
  32. <property>
  33. <!-- 用户自定义扩展的Map-Reduce的shuffle功能 -->
  34. <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
  35. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  36. </property>
  37. </configuration>

Haddop其他相关配置

在/usr/local/src/haddop/etc/haddop/目录下

  1. vi masters
  2. #添加master主机ip地址
  1. vi slaves
  2. #slave1主机ip
  3. #slave2主机ip
新建目录
  1. mkdir /usr/local/src/hadoop/tmp
  2. mkdir /usr/local/src/hadoop/dfs/name -p
  3. mkdir /usr/local/src/hadoop/dfs/data -p
修改目录权限
  1. chown -R hadoop:hadoop /usr/local/src/hadoop/
同步配置文件到slave节点
  1. scp -r /usr/local/src/hadoop/ root@slave1:/usr/local/src/scp -r /usr/local/src/hadoop/ root@slave2:/usr/local/src/
在slave节点上设置hadoop环境变量
修改slave节点上目录权限
  1. chown -R hadoop:hadoop /usr/local/src/hadoop/chown -R hadoop:hadoop /usr/local/src/hadoop/
切换回hadoop用户
执行source /etc/profile使配置的环境变量生效

原文链接:http://www.cnblogs.com/wangruijie/p/14830211.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号