手机网站快速建站,建设施工网络平台,包头网站建设SEO优化制作设计公司,软件库hadoop的三种运行模式
本地模式:测试本地的hadoop是否能够运行#xff0c;用来运行官方的代码。伪分布模式:原先有人拿来测试#xff0c;目前测试都不用这个模式了。完全分布模式#xff1a;多台服务器组成分布式环境#xff0c;生产环境使用
分布式主机文件同步命令
sc…hadoop的三种运行模式
本地模式:测试本地的hadoop是否能够运行用来运行官方的代码。伪分布模式:原先有人拿来测试目前测试都不用这个模式了。完全分布模式多台服务器组成分布式环境生产环境使用
分布式主机文件同步命令
scp -r 需要分发的本机文件路径 外部主机的路径xsync -av 需要分发的本机文件路径 外部主机的路径
编写集群分发脚本
编写一个脚本实现调用xsync 文件名可以快速将本地文件同步给所有外部主机并且可以在所有主机的任意路径使用。
$PATH查看里面的环境变量 /home/atguigu/bin这个路径天然在环境变量中可以在该路径中编写自己的脚本代码脚本名称为xsync, 文件名参数可以有多个
#!/bin/bash#1. 判断参数个数
if [ $# -lt 1 ]
thenecho Not Enough Arguement!exit;
fi#2. 遍历集群所有机器
for host in hadoop102 hadoop103 hadoop104
doecho $host #3. 遍历所有目录挨个发送for file in $do#4. 判断文件是否存在if [ -e $file ]then#5. 获取父目录pdir$(cd -P $(dirname $file); pwd)#6. 获取当前文件的名称fname$(basename $file)ssh $host mkdir -p $pdirrsync -av $pdir/$fname $host:$pdirelseecho $file does not exists!fidone
done免密登录 每个用户的家目录下都有一个.ssh文件用来保存公钥私钥公钥私钥生成命令 ssh-keygen -t rsa, 三次回车即可将公钥发送给其他主机其他主机会将其他主机发送过来的公钥保存到authorized_keys文件中其他主机登录时查验该主机是否在目前的公钥文件中是的话即可免密登录。
集群规划
原则老大尽可能分开小弟尽可能多 hdfs: 老大nn老大2nn 小弟dn yarn: 老大rm , 小弟nm 每台主机最多一个datanode节点和nodemanager节点namenode、resourcemanager、secondnamenode这三个节点为了负载均衡分别分布在不同主机。
五个重要文件
在/etc路径下在jar包中有与之对应的默认配置文件default.xml
core-default.xml -core-site.xmlhdfs-default.xml - hdfs-site.xmlyarn-default.xml - yarn-site.xmlmapred-default.xml - mapred-site.xmlworkers配置datanode节点的主机
core-site文件 fs.defaultFs:文件系统参数 协议更改为hdfsNameNode节点的位置hadoop102端口号为8020 hadoop.tem.dir:指定数据的存储目录hadoop.http.staticuser.user: 配置网页登录使用的静态用户 hdfs-site文件 dfs.namenode.http-address:nn web端访问地址dfs.namenode.secondary.http-address: 2nn web端访问地址 yarn-site文件 yarn.nodemanager.aux-service: 指定MR走shuffleyarn.resourcemanager.hostname: 指定RM节点的位置 MapReduce-site文件 mapreduce.framework.name:指定MapReduce跑在yarn上 workers DataNode节点配置配置数据库节点在哪些主机。
启动集群
格式化start-dfs.sh: 启动hdfs单点启动 hdfs --daemon start datanodehadoop103:8088/cluster查看hadoop集群任务运行情况配置历史服务器在102上内部端口号为10020外部端口号为19888访问历史服务器方式hadoop102:19888/jobhistory开启日志聚集功能方便查看日志
集群的启动方式
群启按模块启动 start/stop-dfs.sh 102start/stop-yarn.sh 103 单启:按组件启动 hdfs --daemon start/stop namenode/datanode/secondarynamenodeyarn --daemon start/stop resourcemanager/ nodemanagermapred --daemon start/stop 编写脚本实现一次性启动/关闭
#!/bin/bashif [ $# -lt 1 ]
thenecho No Args Input...exit ;
ficase $1 in
start)echo 启动 hadoop集群 echo --------------- 启动 hdfs ---------------ssh hadoop102 /opt/module/hadoop-3.3.4/sbin/start-dfs.shecho --------------- 启动 yarn ---------------ssh hadoop103 /opt/module/hadoop-3.3.4/sbin/start-yarn.shecho --------------- 启动 historyserver ---------------ssh hadoop102 /opt/module/hadoop-3.3.4/bin/mapred --daemon start historyserver
;;
stop)echo 关闭 hadoop集群 echo --------------- 关闭 historyserver ---------------ssh hadoop102 /opt/module/hadoop-3.3.4/bin/mapred --daemon stop historyserverecho --------------- 关闭 yarn ---------------ssh hadoop103 /opt/module/hadoop-3.3.4/sbin/stop-yarn.shecho --------------- 关闭 hdfs ---------------ssh hadoop102 /opt/module/hadoop-3.3.4/sbin/stop-dfs.sh
;;
*)echo Input Args Error...
;;
esac