当前位置: 首页 > news >正文

文章响应式网站龙岩做网站龙岩网页设计

文章响应式网站,龙岩做网站龙岩网页设计,西昌网站开发公司,如何自己创建一个网站目录 安装包 flume的部署 负载均衡测试 故障恢复 安装包 在这里给大家准备好了flume的安装包 通过网盘分享的文件#xff1a;apache-flume-1.9.0-bin.tar.gz 链接: https://pan.baidu.com/s/1DXMA4PxdDtUQeMB4J62xoQ 提取码: euz7 --来自百度网盘超级会员v4的分享 ----… 目录 安装包 flume的部署 负载均衡测试 故障恢复 安装包 在这里给大家准备好了flume的安装包 通过网盘分享的文件apache-flume-1.9.0-bin.tar.gz 链接: https://pan.baidu.com/s/1DXMA4PxdDtUQeMB4J62xoQ 提取码: euz7  --来自百度网盘超级会员v4的分享 ----------------------------------------------------------------------------------------------- 大家自行下载。那么正片开始。 flume的部署 首先我们切换到software目录 cd /export/software 使用rz命令上传安装包 上传完成后解压缩安装包道servers目录 tar -zxvf apache-flume-1.9.0-bin.tar.gz -C /export/servers 解压缩完成之后 切换到servers目录 cd /export/servers 之后我们进行一个重命名的大动作。 mv apache-flume-1.9.0-bin flume okfine一切完成之后让我们切换到conf目录 cd /export/servers/flume/conf 切换完成之后开始进行下一步 复制一下文件。 cp flume-env.sh.template flume-env.sh 完成之后我们输入ll查看一下自己是不是安装成功了。 之后我们输入。 vi flume-env.sh 进入文件然后输入shift g 到达文件底部最后贴入自己java的环境变量。 export JAVA_HOME/export/servers/jdk 大家根据自己的实际情况来进行修改哈如果不知道自己的java环境变量是什么的话可以冒号wq保存退出之后在命令行输入· vi /etc/profile 然后使用shiftg到达文件底部。 查看一下自己的环境变量再复制粘贴到刚才的文件里。 看到这里首先不要着急的去复制。 来都来了我们顺手配置一下flume的环境变量。 export FLUME_HOME/export/servers/flume export PATH$FLUME_HOME/bin:$PATH OK配置完成之后我们esc保存退出。 之后让我们来分发一下Flume吧。 scp -r /export/servers/flume/ hadoop02:/export/servers/ scp -r /export/servers/flume/ hadoop03:/export/servers/ 现在你已经分发完flume了那么接下来我们再分发一下环境变量。 scp -r /etc/profile hadoop02:/etc/ scp -r /etc/profile hadoop02:/etc/ 分发完hadoop02和hadoop03环境变量接下来我们需要分别在hadop02和hadoop03上输入 soruce /etc/profile 来令环境变量生效。 接下来我们测试一下hadoop01的哦配置效果、 切换到hadoop01的data目录下 cd /export/data 切换完成之后执行 netcat-logger.conf 复制下面的内容带哦文件里 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type netcat a1.sources.r1.bind localhost a1.sources.r1.port 44444 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 输入完成之后保存退出。 输入下面的命令看下效果。 flume-ng agent --name a1 --conf conf/ --conf-file /export/data/netcat-logger.conf -Dflume.root.loggerINFO,console 出现下面的页面就算是成功了。 那么让我们再次打开一个hadoop01窗口开始进行一些操作 打开另一个窗口之后我们 yum -y install telnet 下载一个telnet包 下载完成之后连接一下44444端口 telnet localhost 44444 然后另一边 日志采集到这里就算是完成了。 接下来使用ctrlc退出进行下一步。两个窗口都ctrlc然后随便关闭一个。 都干完之后我们来到hadop01的flume的conf目录 cd /export/servers/flume/conf 输入 vi exec-avro.conf 然后粘贴下面的内容粘贴完成之后保存退出。 a1.sources r1 a1.sinks k1 k2 a1.channels c1 a1.sources.r1.channels c1 a1.sources.r1.type exec a1.sources.r1.command tail -F /export/data/123.log a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.sinks.k1.channel c1 a1.sinks.k1.type avro a1.sinks.k1.hostname hadoop02 a1.sinks.k1.port 53421 a1.sinks.k2.channel c1 a1.sinks.k2.type avro a1.sinks.k2.hostname hadoop03 a1.sinks.k2.port 53421 a1.sinkgroups g1 a1.sinkgroups.g1.sinks k1 k2 a1.sinkgroups.g1.processor.type load_balance a1.sinkgroups.g1.processor.backoff true a1.sinkgroups.g1.processor.selector random a1.sinkgroups.g1.processor.maxTimeOut10000 输入完成之后我切换搭配hadoop02的conf目录下 vi avro-logger1.conf 染的时候输入下面的内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop02 a1.sources.r1.port 53421 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 完成之后切换到hadoop03的虚拟机 同样是切换目录 vi avro-logger2.conf 切换完成之后我们输入下面的内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop03 a1.sources.r1.port 53421 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 配置完成之后我们在hadoop02上执行下面的命令来启动agent flume-ng agent --name a1 --conf conf/ --conf-file avro-logger1.conf -Dflume.root.loggerINFO,console 完成之后切换到hadoop03执行下面的命令 flume-ng agent --name a1 --conf conf/ --conf-file avro-logger2.conf -Dflume.root.loggerINFO,console 下面放上hadoop01和hadoop02启动成功的画面 之后我们切换回hadoop01 切换到conf目录 cd /export/servers/flume/conf 之后输入下面的命令 flume-ng agent --name a1 --conf conf/ --conf-file exec-avro.conf -Dflume.root.loggerINFO,console 启动成功之后如下图所示。 ok一切完成之后我们开始一个负载均衡测试。 负载均衡测试 我们再次打开一个hadop01的窗口 像data目录下写入flume flume... 下面的命令每隔两秒会向日志追加一条flume flume... while true;do echo flume flume... /export/data/123.log;sleep 2;done hadoop01和hadoop03会如下图所示 接下来我们就可以开心的开始下一项’ 故障恢复 下面文件里的内容一定要和自己的主机名搭配起来 来到hadoop01的conf目录下 cd /export/servers/flume/conf 输入 vi exec-avro-failover.conf 输入下面的内容 a1.sources r1 a1.sinks k1 k2 a1.channels c1 a1.sources.r1.channels c1 a1.sources.r1.type exec a1.sources.r1.command tail -F /export/data/456.log a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.sinks.k1.channel c1 a1.sinks.k1.type avro a1.sinks.k1.hostname hadoop02 a1.sinks.k1.port 53422 a1.sinks.k2.channel c1 a1.sinks.k2.type avro a1.sinks.k2.hostname hadoop03 a1.sinks.k2.port 53422 a1.sinkgroups g1 a1.sinkgroups.g1.sinks k1 k2 a1.sinkgroups.g1.processor.type failover a1.sinkgroups.g1.processor.priority.k1 5 a1.sinkgroups.g1.processor.priority.k2 10 a1.sinkgroups.g1.processor.maxpenalty 10000 那么好 接下来切换到hadoop02 vi avro-logger3.conf 写入以下内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop02 a1.sources.r1.port 53422 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 ​ 然后wq保存退出 那么再切换到hadoop03 vi avro-logger4.conf 写入下面的内容 a1.sources r1 a1.sinks k1 a1.channels c1 a1.sources.r1.type avro a1.sources.r1.bind hadoop03 a1.sources.r1.port 53422 a1.sinks.k1.type logger a1.channels.c1.type memory a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100 a1.sources.r1.channels c1 a1.sinks.k1.channel c1 接下来切换到hadoop02,输入 flume-ng agent --name a1 --conf conf/ --conf-file avro-logger3.conf -Dflume.root.loggerINFO,console 接下来切换到hadoop03 flume-ng agent --name a1 --conf conf/ --conf-file avro-logger4.conf -Dflume.root.loggerINFO,console 接下来切换到hadoop01的conf目录下。 cd /export/servers/flume/conf flume-ng agent --name a1 --conf conf/ --conf-file exec-avro-failover.conf -Dflume.root.loggerINFO,console 全部启动成功之后我们切换到 hadoop01就可以提开始发挥了 while true;do echo flume flume... /export/data/456.log;sleep 2;done 音位hadoop03的优先级会比hadoop02高 所以是hadoop03会比hadoop02先写入日志 这个时候就要及时止损 ctrlc退出静等一会儿你就会发现 hadoop02上出现了hadoop03上终止的信息。日志记录不会被停止‘
http://www.w-s-a.com/news/804124/

相关文章:

  • 电商网站开发 文献综述大型网站建设企业
  • 如何在建设部网站补录项目单仁牛商
  • 社保网站上做减员一直不审核软件程序开发
  • 网站友情链接购买天元建设集团有限公司资质
  • 南山商城网站建设哪家技术好株洲seo网站优化软件
  • 服务类网站建设18款禁用网站app直播
  • 电子商务网站建设需要物流网站开发公司
  • 网站的系统建设方式有哪些内容宁波网站建设公司
  • 网站开发 技术方案品牌建设总要求
  • 中卫网站建站设计seo专员的工作内容
  • h5商城网站是什么意思.net 网站开发框架
  • 西安网站改版的公司软件外包是什么意思
  • 网站建设了解眉山网站优化
  • 做网站用php还是node如何申请网站域名流程
  • 销售公司怎么做网站删除wordpress
  • 毕节网站怎么做seohtml代码特效银河系
  • 淄博品质网站建设网站引导页案例
  • 网站建设虚拟空间小豹子韬韬是哪个网站做的
  • 网络司网站如何建立公司网站建议和规则
  • 织梦网站模板后台密码找回企业vi设计公司性价比高
  • php 爬取网站所有链接传奇手游发布网站
  • 免费软文网站wordpress中文名注册
  • 企业网站建设研究目的意义怎样设计一个公司网站
  • 怎么架构网站便民信息发布平台
  • 网站 建设 现状网站推广合同需要缴纳印花税吗
  • 熊猫头表情包制作网站wordpress 缺省目录
  • 网站浏览图片怎么做的群晖wordpress升级5.0
  • 25个优秀个人网站设计模板网站建设定位分析论文
  • 在线网站备案站长seo综合查询工具
  • 网站根 html网站建设行业数据