当前位置: 首页 > news >正文

十大免费行情软件网站下载做网站还是做公众号

十大免费行情软件网站下载,做网站还是做公众号,常州网站建设公司报价,安卓应用开发系统Hadoop基础知识 1、Hadoop简介 广义上来说#xff0c;Hadoop通常是指一个更广泛的概念——Hadoop生态圈。狭义上说#xff0c;Hadoop指Apache这款开源框架#xff0c;它的核心组件有#xff1a; HDFS#xff08;分布式文件系统#xff09;#xff1a;解决海量数据存储Y…Hadoop基础知识 1、Hadoop简介 广义上来说Hadoop通常是指一个更广泛的概念——Hadoop生态圈。狭义上说Hadoop指Apache这款开源框架它的核心组件有 HDFS分布式文件系统解决海量数据存储YARN作业调度和集群资源管理的框架解决资源任务调度MAPREDUCE分布式运算编程框架解决海量数据计算 2、Hadoop特性优点 扩容能力ScalableHadoop是在可用的计算机集群间分配数据并完成计算任务的这些集群可用方便的扩展到数以千计的节点中。成本低EconomicalHadoop通过普通廉价的机器组成服务器集群来分发以及处理数据以至于成本很低。高效率Efficient通过并发数据Hadoop可以在节点之间动态并行的移动数据使得速度非常快。可靠性Rellable能自动维护数据的多份复制并且在任务失败后能自动地重新部署redeploy计算任务。所以Hadoop的按位存储和处理数据的能力值得人们信赖。 3、hadoop集群中hadoop都需要启动哪些进程他们的作用分别是什么 namenode HDFS的守护进程负责维护整个文件系统存储着整个文件系统的元数据信息fsimageedit log fsimage保存了最新的元数据检查点包含了整个HDFS文件系统的所有目录和文件的信息。editlog主要是在NameNode已经启动情况下对HDFS进行的各种更新操作进行记录HDFS客户端执行所有的写操作都会被记录到editlog中。 datanode 是具体文件系统的工作节点当我们需要某个数据namenode告诉我们去哪里找就直接和那个DataNode对应的服务器的后台进程进行通信由DataNode进行数据的检索然后进行具体的读/写操作secondarynamenode 一个守护进程相当于一个namenode的元数据的备份机制定期的更新和namenode进行通信将namenode上的image和edits进行合并可以作为namenode的备份使用 触发checkpoint需要满足两个条件中的任意一个定时时间到和edits中数据写满了 每隔一小时执行一次一分钟检查一次操作次数当操作次数达到1百万时 resourcemanager 是yarn平台的守护进程负责所有资源的分配与调度client的请求由此负责监控nodemanagernodemanager 是单个节点的资源管理执行来自resourcemanager的具体任务和命令DFSZKFailoverController高可用时它负责监控NN的状态并及时的把状态信息写入ZK。它通过一个独立线程周期性的调用NN上的一个特定接口来获取NN的健康状态。FC也有选择谁作为Active NN的权利因为最多只有两个节点目前选择策略还比较简单先到先得轮换。7JournalNode 高可用情况下存放namenode的editlog文件 4、Hadoop主要的配置文件 hadoop-env.sh 文件中设置的是Hadoop运行时需要的环境变量。JAVA_HOME是必须设置的即使我们当前的系统中设置了JAVA_HOME它也是不认识的因为Hadoop即使是在本机上执行它也是把当前的执行环境当成远程服务器。 core-site.xml 设置Hadoop的文件系统地址 propertynamefs.defaultFS/namevaluehdfs://node-1:9000/value /propertyhdfs-site.xml 指定HDFS副本的数量 secondary namenode 所在主机的ip和端口 propertynamedfs.replication/namevalue2/value/propertypropertynamedfs.namenode.secondary.http-address/namevaluenode-2:50090/value/propertymapred-site.xml 指定mr运行时框架这里指定在yarn上默认是local propertynamemapreduce.framework.name/namevalueyarn/value /propertyyarn-site.xml 指定YARN的主角色ResourceManager的地址 propertynameyarn.resourcemanager.hostname/namevaluenode-1/value /property5、Hadoop集群重要命令 初始化 hadoop namenode –format 启动dfs start-dfs.sh 启动yarn start-yarn.sh 启动任务历史服务器 mr-jobhistory-daemon.sh start historyserver默认端口19888 一键启动 start-all.sh 启动成功后 NameNode http://nn_host:port/ 默认50070. ResourceManagerhttp://rm_host:port/ 默认 8088 选项名称使用格式含义-ls-ls 路径查看指定路径的当前目录结构-lsr-lsr 路径递归查看指定路径的目录结构-du-du 路径统计目录下个文件大小-dus-dus 路径汇总统计目录下文件(夹)大小-count-count [-q] 路径统计文件(夹)数量-mv-mv 源路径 目的路径移动-cp-cp 源路径 目的路径复制-rm-rm [-skipTrash] 路径删除文件/空白文件夹-rmr-rmr [-skipTrash] 路径递归删除-put-put 多个linux上的文件 hdfs路径上传文件-copyFromLocal-copyFromLocal 多个linux上的文件 hdfs路径从本地复制-moveFromLocal-moveFromLocal 多个linux上的文件 hdfs路径从本地移动-getmerge-getmerge 源路径 linux路径合并到本地-cat-cat hdfs路径查看文件内容-text-text hdfs路径查看文件内容-copyToLocal-copyToLocal [-ignoreCrc][-crc] [hdfs源路径][linux目的路径]从本地复制-moveToLocal-moveToLocal [-crc] hdfs源路径 linux目的路径从本地移动-mkdir-mkdir hdfs路径创建空白文件夹-setrep-setrep [-R][-w] 副本数 路径修改副本数量-touchz-touchz 文件路径创建空白文件-stat-stat [format] 路径显示文件统计信息-tail-tail [-f] 文件查看文件尾部信息-chmod-chmod [-R] 权限模式 [路径]修改权限-chown-chown [-R][属主][:[属组]] 路径修改属主-chgrp-chgrp [-R] 属组名称 路径修改属组-help-help [命令选项]帮助 6、HDFS的垃圾桶机制 修改core-site.xml propertynamefs.trash.interval/namevalue1440/value/property这个时间以分钟为单位例如144024h1天。HDFS的垃圾回收的默认配置属性为 0也就是说如果你不小心误删除了某样东西那么这个操作是不可恢复的。 7、HDFS写数据流程 HDFS dfs -put a.txt / 详细步骤 1客户端通过Distributed FileSystem模块向namenode请求上传文件namenode检查目标文件是否已存在父目录是否存在。 client和namenode之间是通过RPC通信 datanode和namenode之间是通过RPC通信 client和datanode之间是通过简单的Socket通信;2namenode返回是否可以上传。 3客户端请求第一个 block上传到哪几个datanode服务器上。 4namenode返回3个datanode节点分别为dn1、dn2、dn3。 5客户端通过FSDataOutputStream模块请求dn1上传数据dn1收到请求会继续调用dn2然后dn2调用dn3将这个通信管道建立完成。RPC通信 6dn1、dn2、dn3逐级应答客户端。 7客户端开始往dn1上传第一个block先从磁盘读取数据放到一个本地内存缓存以packet为单位大小为64kdn1收到一个packet就会传给dn2dn2传给dn3dn1每传一个packet会放入一个应答队列等待应答。 8当一个block传输完成之后客户端再次请求namenode上传第二个block的服务器。 8、Hadoop读数据流程 详细步骤 1客户端通过Distributed FileSystem向namenode请求下载文件namenode通过查询元数据找到文件块所在的datanode地址。2挑选一台datanode就近原则然后随机服务器请求读取数据。3datanode开始传输数据给客户端从磁盘里面读取数据输入流以packet为单位来做校验,大小为64k。4客户端以packet为单位接收先在本地缓存然后写入目标文件。 9、SecondaryNameNode的作用 ​ NameNode职责是管理元数据信息DataNode的职责是负责数据具体存储那么SecondaryNameNode的作用是什么 答它的职责是合并NameNode的edit logs到fsimage文件。 ​ 每达到触发条件 [达到一个小时或者事务数达到100万]会由secondary namenode将namenode上积累的所有edits和一个最新的fsimage下载到本地并加载到内存进行merge这个过程称为checkpoint如下图所示 10、HDFS的扩容、缩容 10.1动态扩容 ​ 随着公司业务的增长数据量越来越大原有的datanode节点的容量已经不能满足存储数据的需求需要在原有集群基础上动态添加新的数据节点。也就是俗称的动态扩容。 ​ 有时候旧的服务器需要进行退役更换暂停服务可能就需要在当下的集群中停止某些机器上hadoop的服务俗称动态缩容。 10.1.1 基础准备 在基础准备部分主要是设置hadoop运行的系统环境 修改新机器系统hostname通过/etc/sysconfig/network进行修改 修改hosts文件将集群所有节点hosts配置进去集群所有节点保持hosts文件统一 设置NameNode到DataNode的免密码登录ssh-copy-id命令实现 修改主节点slaves文件添加新增节点的ip信息集群重启时配合一键启动脚本使用 在新的机器上上传解压一个新的hadoop安装包从主节点机器上将hadoop的所有配置文件scp到新的节点上。 10.1.2 添加datanode 在namenode所在的机器的 /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop目录下创建dfs.hosts文件 cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoopvim dfs.hosts添加如下主机名称包含新服役的节点node-1node-2node-3node-4 在namenode机器的hdfs-site.xml配置文件中增加dfs.hosts属性 cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop vim hdfs-site.xml propertynamedfs.hosts/namevalue/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/dfs.hosts/value /property​ dfs.hosts属性的意义命名一个文件其中包含允许连接到namenode的主机列表。必须指定文件的完整路径名。如果该值为空则允许所有主机。相当于一个白名单也可以不配置。 在新的机器上单独启动datanode hadoop-daemon.sh start datanode 刷新页面就可以看到新的节点加入进来了 10.1.3datanode负载均衡服务 新加入的节点没有数据块的存储使得集群整体来看负载还不均衡。因此最后还需要对hdfs负载设置均衡因为默认的数据传输带宽比较低可以设置为64M即hdfs dfsadmin -setBalancerBandwidth 67108864即可 默认balancer的threshold为10%即各个节点与集群总的存储使用率相差不超过10%我们可将其设置为5%。然后启动Balancer sbin/start-balancer.sh -threshold 5等待集群自均衡完成即可。 10.1.4添加nodemanager 在新的机器上单独启动nodemanager yarn-daemon.sh start nodemanager 在ResourceManager通过yarn node -list查看集群情况 10.2动态缩容 10.2.1添加退役节点 在namenode所在服务器的hadoop配置目录etc/hadoop下创建dfs.hosts.exclude文件并添加需要退役的主机名称。 注意该文件当中一定要写真正的主机名或者ip地址都行不能写node-4 node04.hadoop.com 在namenode机器的hdfs-site.xml配置文件中增加dfs.hosts.exclude属性 cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop vim hdfs-site.xml property namedfs.hosts.exclude/namevalue/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/dfs.hosts.exclude/value /propertydfs.hosts.exclude属性的意义命名一个文件其中包含不允许连接到namenode的主机列表。必须指定文件的完整路径名。如果值为空则不排除任何主机。 10.2.2刷新集群 在namenode所在的机器执行以下命令刷新namenode刷新resourceManager。 hdfs dfsadmin -refreshNodes yarn rmadmin –refreshNodes 等待退役节点状态为decommissioned所有块已经复制完成停止该节点及节点资源管理器。注意如果副本数是3服役的节点小于等于3是不能退役成功的需要修改副本数后才能退役。 node-4执行以下命令停止该节点进程 cd /export/servers/hadoop-2.6.0-cdh5.14.0 sbin/hadoop-daemon.sh stop datanode sbin/yarn-daemon.sh stop nodemanager namenode所在节点执行以下命令刷新namenode和resourceManager hdfs dfsadmin –refreshNodes yarn rmadmin –refreshNodes namenode所在节点执行以下命令进行均衡负载 cd /export/servers/hadoop-2.6.0-cdh5.14.0/ sbin/start-balancer.sh 11、HDFS安全模式 ​ 安全模式是HDFS所处的一种特殊状态在这种状态下文件系统只接受读数据请求而不接受删除、修改等变更请求是一种保护机制用于保证集群中的数据块的安全性。 ​ 在NameNode主节点启动时HDFS首先进入安全模式集群会开始检查数据块的完整性。DataNode在启动的时候会向namenode汇报可用的block信息当整个系统达到安全标准时HDFS自动离开安全模式。 手动进入安全模式 hdfs dfsadmin -safemode enter手动离开安全模式 hdfs dfsadmin -safemode leave12、机架感知 ​ hadoop自身是没有机架感知能力的必须通过人为的设定来达到这个目的。一种是通过配置一个脚本来进行映射另一种是通过实现DNSToSwitchMapping接口的resolve()方法来完成网络位置的映射。 写一个脚本然后放到hadoop的core-site.xml配置文件中用namenode和jobtracker进行调用。 #!/usr/bin/python #-*-coding:UTF-8 -*- import sysrack {hadoop-node-31:rack1,hadoop-node-32:rack1,hadoop-node-33:rack1,hadoop-node-34:rack1,hadoop-node-49:rack2,hadoop-node-50:rack2,hadoop-node-51:rack2,hadoop-node-52:rack2,hadoop-node-53:rack2,hadoop-node-54:rack2,192.168.1.31:rack1,192.168.1.32:rack1,192.168.1.33:rack1,192.168.1.34:rack1,192.168.1.49:rack2,192.168.1.50:rack2,192.168.1.51:rack2,192.168.1.52:rack2,192.168.1.53:rack2,192.168.1.54:rack2,}if __name____main__:print / rack.get(sys.argv[1],rack0)将脚本赋予可执行权限chmod x RackAware.py并放到bin/目录下。 然后打开conf/core-site.html propertynametopology.script.file.name/namevalue/opt/modules/hadoop/hadoop-1.0.3/bin/RackAware.py/value !--机架感知脚本路径--/propertypropertynametopology.script.number.args/namevalue20/value !--机架服务器数量由于我写了20个所以这里写20--/property重启Hadoop集群 namenode日志 2012-06-08 14:42:19,174 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.registerDatanode: node registration from 192.168.1.49:50010 storage DS-1155827498-192.168.1.49-50010-1338289368956 2012-06-08 14:42:19,204 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /rack2/192.168.1.49:50010 2012-06-08 14:42:19,205 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.registerDatanode: node registration from 192.168.1.53:50010 storage DS-1773813988-192.168.1.53-50010-1338289405131 2012-06-08 14:42:19,226 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /rack2/192.168.1.53:50010 2012-06-08 14:42:19,226 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.registerDatanode: node registration from 192.168.1.34:50010 storage DS-2024494948-127.0.0.1-50010-1338289438983 2012-06-08 14:42:19,242 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /rack1/192.168.1.34:50010 2012-06-08 14:42:19,242 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.registerDatanode: node registration from 192.168.1.54:50010 storage DS-767528606-192.168.1.54-50010-13382894122672012-06-08 14:42:49,492 INFO org.apache.hadoop.hdfs.StateChange: STATE* Network topology has 2 racks and 10 datanodes2012-06-08 14:42:49,492 INFO org.apache.hadoop.hdfs.StateChange: STATE* UnderReplicatedBlocks has 0 blocks2012-06-08 14:42:49,642 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: ReplicateQueue QueueProcessingStatistics: First cycle completed 0 blocks in 0 msec2012-06-08 14:42:49,642 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: ReplicateQueue QueueProcessingStatistics: Queue flush completed 0 blocks in 0 msec processing time, 0 msec clock time, 1 cycles
http://www.w-s-a.com/news/388317/

相关文章:

  • 做家常菜的网站哪个好哪个网站做图片外链
  • 眼科医院网站设计怎么做6深圳宝安是什么风险等级
  • 网站制作容易吗logo免费生成网站
  • 建设厅官方网站下载专区网络托管公司
  • 祥云平台官方网站网线制作实验原理
  • 把网站做成app的软件下载国外做兼职的网站有哪些
  • 网站建设 海豚弯专业的网站开发服务商
  • 那个网站有免费模板中国家装公司十大排名
  • 中铁建设集团有限公司门户网站余杭区建设规划局网站
  • 天猫网站建设的目标是什么做网站常见问题模板
  • 做php网站需要什么软件天津建设网官方网站
  • 南漳网站开发上海网站推广方法
  • 深圳seo网站大连旅顺房价
  • dede网站 地图什么做有没有做黑市网站
  • 做网站参考文献域名如何做网站
  • 怎么选择网站开发英文网站建设用途
  • 怎样做电子商务网站织梦生成手机网站
  • 公司网站建设选什么服务器网站里怎样添加关键词
  • 深圳建设局网站深业中城绿化项目营销型网站开发流程包括
  • 找销售的网站九江市建设项目服务中心
  • 东原ARC网站建设公司合肥seo网站推广外包
  • 那个网站是做房产中介的网站制作软件小学
  • 做网页怎么建站点视频解析网站
  • 做网站的系统设计网站设计论文前言
  • 做外贸网站多久更新汕头市建设局网站首页
  • 如何建设专业化的网站手机管理网站模板
  • 花生壳做网站如何用腾讯云做网站
  • 搭建集团网站开发app需要哪些软件
  • 网站建设 中企动力福州阀门wordpress 多说评论
  • php网站集成支付宝接口下载免费网络软件