当前位置: 首页 > news >正文

做资源下载网站用什么工具成都网站建设推广在

做资源下载网站用什么工具,成都网站建设推广在,php网站建设的毕设报告,电商网站页面布局ELK elk#xff1a;elasticsearch logstatsh kibana统一日志收集系统 elasticsearch#xff1a;分布式的全文索引引擎点非关系型数据库,存储所有的日志信息#xff0c;主和从#xff0c;最少需要2台 logstatsh#xff1a;动态的从各种指定的数据源#xff0c;获取数据…ELK elkelasticsearch logstatsh kibana统一日志收集系统 elasticsearch分布式的全文索引引擎点非关系型数据库,存储所有的日志信息主和从最少需要2台 logstatsh动态的从各种指定的数据源获取数据而且对数据进行过滤分析按照统一的格式发送到es kibana把es的数据进行展示进行客户端可以理解的操做汇总分析和搜索数据的平台 ELK工作原理 1、logstash收集日志数据 2、收集到的数据按照es的格式发送到数据库 3、在图形界面展示—kibana 4、客户端访问kibana 安装 test1 es1 test2 es2 test3 logstatsh kibana 三台主机 cd /opt 把es安装包拖到/opt目录下 apt -y install openjdk-8-jre-headlesstest1和test2 dpkg -i elasticsearch free -h echo 3 /proc/sys/vm/drop_caches #清理内存 cd /etc/elasticsearch cp elasticsearch.yml elasticsearch.yml.bak.2025.1 vim elasticsearch.yml 第17行取消注释 cluster.name: my-elk 第23行 node.name: node1/node2 #test1和test2名称不能一样 node.mastertrue/false #表示该节点是否为主节点test1是truetest2为false node.datetrue #表示该节点是否为数据节点 第57行去掉注释 network.host:0.0.0.0 #修改监听地址 第64行去掉注释 http.port:9200 #es对外提供的默认端口 transport.tcp.port:9300 #指定es集群内部的通信接口 第76行取消注释 discovery.zen.ping.unicast.hosts: [192.168.42.50:9300, 192.168.42.51:9300] #集群节点通过单播的形式通过9300端口实现内部通信 http.cors.enabled:true #开启跨域访问 http.cors.allow-origin:* #允许跨域访问的地址域名为所有 保存退出 grep -v “^#” elasticsearch.yml systemctl restart elasticsearch #查看日志 tail -f /var/log/syslog #查看端口 netstat -antp | grep 9200浏览器查看 test1 test2 test3 dpkg -i logstash dpkg -i kibana systemctl restart logstash cd /usr/share/logstash/bin/ ln -s /usr/share/logstash/bin/logstash /usr/local/bin/ cd /erc/kibana/ vim kibana.yml 第2行取消注释 第7行server.host 0.0.0.0 第28行 elasticsearch.hosts: [http://192.168.233.10:9200, http://192.168.233.20:9200] 第37行取消注释 第96行/var/log/kibana.log 第113行 zh-CN 保存退出 touch /var/log/kibana.log chown kibana.kibana /var/log/kibana.log systemctl restart kibana 查看日志 查看端口 cd /etc/logstash/conf.d vim system.conf input {file{path/var/log/syslogtypesystemstart_positionbeginning} } output {elasticsearch {hosts [192.168.42.60;9200,192.168.42.61:9200]index system-%{YYYY.MM.dd}} } 保存退出 logstash -f system.conf --path.data /opt/test1 logstash:logstash是一个重量级的工具占用很大的内存空间只能收集本机的服务没有办法远程发送 filebeat结合logstash实现远程的日志收集 filebeat filebeat是一款轻量级的日志收集工具不依赖java环境用来替代在机器上没有java环境的情况下进行日志收集filebeat启动日志只要10M左右内存 test4 vim /etc/my.cnf general_logON general_log_file/usr/local/mysql/data/mysql_general.log 保存退出 systemctl restart mysql apt -y install nginx systemctl restart nginx cd /opt 把filebeat安装包拖进来 tar -xf filebeat mv filebeat /usr/local/filebeat cd /usr/local/filebeat vim filebeat.yml filebeat.inputs: - type: logenabled: truepaths:- /var/log/nginx/access.log- /var/log/nginx/error.logtags: [nginx]#标签为了后续logstash进行识别的fields:service_name: 192.168.42.23_nginx#设定显示的索引名称log_type: nginxfrom: 192.168.233.21 - type: logenabled: truepaths:- /usr/local/mysql/data/mysql_general.logtags: [mysql]#标签为了后续logstash进行识别的fields:service_name: 192.168.42.23_mysql#设定显示的索引名称log_type: mysqlfrom: 192.168.42.23 seccomp: default_action: allow syscalls: - action: allownames:- rseq第157行和159行注释第170行和172行取消注释Ihosts: [192.168.42.62:5044] logstash的端口不是说logstash一定是5044理论上来说可以是任意端口默认的logstash起始端口 保存退出 cd /usr/local/filebeat ./filebeat -e -c filebeat.yml #-e:输出的格式为标准输出 #-c:指定配置文件test3 cd /etc/logstash/conf.d vim test1.conf input {beats { port 5044} } output {if nginx in [tags] {elasticsearch {hosts [192.168.42.60:9200, 192.168.42.61:9200]index %{[fields][serrvice_name]}-%{YYYY.MM.dd}}}if mysql in [tags] {elasticsearch {hosts [192.168.42.60:9200, 192.168.42.61:9200]index %{[fields][serrvice_name]}-%{YYYY.MM.dd}}} } 保存退出 logstash -f test1.conf --path.data /opt/test2 zookeeperkafka zookeepr:开源的分布式框架协调服务 zookeeper工作机制 1、基于观察者模式设计的分布式结构负责存储和管理的架构当中的元信息架构当中的应用接受观察者的监控一旦数据有变化通知对应的zookeeper保存变化的信息 2、特点 最少要有3台机器一个领导者leader多个跟随者followerzookeeper要有半数以上的节点存活整个架构就可以正常工作所以都是奇数台部署全局数据一致数据更新的原子性要么都成功要么都失败实时性 zookeeper的数据结构 1、统一命名服务不是以ip来记录可以用域名也可以是主机名来记录信息 2、统一配置管理所有的节点信息的配置要一致 3、同一集群管理在整个分布式的环境中必须实时的掌握每个节点的状态如果状态发生变化要及时更新 nginx1/2/3 apt -y install ntpdate ntpdate alyun.comm cd /opt 把zookeeper托进去 tar -xf zookeeper apt -y install java java -version mv zpzche-zookeeper zookeeper cd zookeeper/conf cp zoo_sample.cfg zoo.cfg vim zoo.cfg dataDir/opt/zookeeper/data dataLogDir/opt/zookeeper/logs server.1192.168.42.20:3188:3288 server.2192.168.42.30:3188:3288 server.3192.168.42.40:3188:3288 保存退出 cd /opt/zookeeper mkdir data mkdir logs useradd -m -s /sbin/nologin zookeeper cd /opt chown -R zookeeper.zookeeper /opt/zookeeper cd zookeeper/data echo 1\2\3 myid cd ../bin ./zkServer.sh start ./zkServer.sh statusserver.1192.168.233.61:3188:3288 server.2192.168.233.62:3188:3288 server.3192.168.233.63:3188:3288 1: 指的是服务器的序号 192.168.233.61: 对应序号的服务器的ip地址 3188: leader和follower之间交换信息的端口 3288: 选举端口 kafka kafka消息对列服务端向客户端发送一个指令客户端收到指令并且通过这个指令反馈到服务器完整一个异步方式的通信的流程 kafka消息队列大数据场景非常合适 rabbitMQ适合处理小场景的数据请求 activeMQ适合处理小场景的数据请求 消息队列的应用场景 1、异步处理 用户的短信验证码邮件通知 2、系统解耦 微服务架构中的服务之间通信 降低各个组件之间的依赖程度耦合度可以提高组件的灵活性和可维护性 3、负载均衡 高并发系统中的任务处理消息对列把所有任务根发到多个消费者实列电商平台的订单系统 4、流量控制和限流 根据api请求来进行处理通过控制消息的生产速度和消费的处理速度来完成限流 端口应用和应用之间通信 api接口应用程序内部各个组件之间通信的方式 5、任务调度和定时任务 消息队列可以定时的进行任务调度按照消费者的计划生成对应的数据 6、数据同步和分发 日志收集和数据收集远程的实现数据的统一管理 7、实时数据处理 8、备份和恢复 消息队列的模式 1、点对点一对一生产者生产消息消费者消费信息这个是一对一的 2、发布/订阅模式 消息的生产者发布一个主题其他的消费者订阅这个主题从而实现一对多 主题topic kafka组件的名称 1、主题 topic主题是kafka数据流的一个基本的单元类似于数据的管道。生产者将消息发布到主题其他的消费者订阅主题来消费消息主题可以被分区分区有偏移量 2、生产者: 将消息写入主题和分区 3、消费者从分区和主题当中消费发布的消息,一个消费者可以订阅多个主题 4、分区一个主题可以被分为多个分区每个分区都是数据的有序子集分区越多消费者消费的速度就快避免生产者的消费堆积分区当中有偏移量按照偏移量进行有序存储消费者可以独立的读写每个分区的数据如何读取分区的数据一般是不考虑的只有在消息出现堆积的时候会考虑扩展分区数 kafka的消费堆积出现应该如何处理消费者没有及时处理掉生产者发布的消息导致消息堆积可以扩展分区数 5、偏移量消息在分区当中的唯一标识,根据偏移量指定消费者获取消息的位置 6、经纪人zookeeper存储分区的信息kafka集群的元数据 cd /opt 把kafka拖过去 free -h echo 3 /proc/sys/vm/drop_caches tar -xf kafka mv kafka /usr/local/kafka cd /usr/local/kafka/config cp server.properties server.properties.bak vim server.properties 第21行 id号要不一样 第34行去掉注释 listenersPLAINTEXT//:192.168.42.20:9092 第65行 log.dirs/usr/local/kafka/logs 第103行 log.retention.hours168 #消息队列当中数据保存的最大时间默认是7天单位是小时 第130行 zookeeper.connect192.168.42.20:2181,192.168.42.30:2181,192.168.42.40:2181 保存退出 cd /usr/local/kafka/bin ./kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties netstat -antp | grep 9092nginx1 vim /etc/profile export KAFKA_HOME/usr/local/kafka export PATH$PATH:$KAFKA_HOME/bin 保存退出 source /etc/profile cd /usr/local/kafka/bin kafka-topics.sh --create --bootstrap-server 192.168.42.20:9092,192.168.42.30:9092,192.168.42,40:9092 --replication-factor 2 --partitions 3 --topic test1 cd /usr/local/kafka/bin kafka-console-producer.sh --broker-list 192.168.42.20:9092,192.168.42.30:9092,192.168.42,40:9092 --topic test1 kafka-console-producer.sh --broker-list 192.168.42.20:9092,192.168.42.30:9092,192.168.42.40:9092 --topic test1nginx2 cd /usr/local/kafka/bin ./kafka-topics.sh --list --bootstrap-server 192.168.42.20:9092nginx3 vim /etc/profile export KAFKA_HOME/usr/local/kafka export PATH$PATH:$KAFKA_HOME/bin 保存退出 source /etc/profile cd /usr/local/kafka/bin kafka-console-consumer.sh --bootstrap-server 192.168.42.20:9092,192.168.42.30:9092,192.168.42.40:9092 --topic test1 --from-beginningkafka-topics.sh --create --bootstrap-server 192.168.233.61:9092,192.168.233.62:9092,192.168.233.63:9092 --replication-factor 2 --partitions 3 --topic test1 bootstrap-server: 这里的地址一般是一个集群当中地址即可默认的我们包含所有。 –replication-factor 2: 定义主题的副本数2个副本2-4个副本是偶数。 partitions 3: 定义分区数 3 6个 修改主题的分区数 cd /opt 查看 kafka-topics.sh --describe --bootstrap-server 192.168.42.20:9092,192.168.42.30:9092,192.168.42,40:9092 | grep test1 修改 kafka-topics.sh --bootstrap-server 192.168.42.20:9092,192.168.42.30:9092,192.168.42,40:9092 --alter --topic test1 --partitions 6 删除主题 kafka-topics.sh --delete --bootstrap-server 192.168.42.20:9092,192.168.42.30:9092,192.168.42,40:9092 --topic test1mysql1 cd /usr/local/filebeat vim filebeat.yml 第177行注释掉 output.kafka: enables: truehosts: [192.168.42.20:9092,192.168.42.30:9092,192.168.42.40:9092]topic: nginx_mysql 保存退出 ./filebeat -e -c filebeat.ymlelk-lk-3 cd /etc/logstash/conf.d vim kafka.conf input {kafka {bootstrap_servers 192.168.42.20:9092,topics nginx_mysqltype nginx_kafkacodec json#指定数据的格式jsonauto_offset_reset latest#latest从尾部开始decorate_events true#传递给饿死的数据额外的附加的kafka数据} } output {if nginx-1 in [tags] {elasticsearch {hosts [192.168.42.60:9200, 192.168.42.61:9200]index %{[fields][serrvice_name]}-%{YYYY.MM.dd}}}if mysql-1 in [tags] {elasticsearch {hosts [192.168.42.60:9200, 192.168.42.61:9200]index %{[fields][serrvice_name]}-%{YYYY.MM.dd}}} } 保存退出 logstash -f kafka.conf --path.data /opt/testa nginx1 kafka-console-consumer.sh --bootstrap-server 192.168.42.20:9092,192.168.42.30:9092,192.168.42.40:9092 --topic nginx_mysql --from-beginning
http://www.w-s-a.com/news/938972/

相关文章:

  • 网站如何做词360免费wifi老是掉线怎么办
  • 网站建设分金手指排名十八iis10 wordpress
  • 成都网站优化公司哪家好网站建设帮助中心
  • 做外单什么网站好佛山市建设企业网站服务机构
  • 哪些网站是单页面应用程序北京门头沟山洪暴发
  • 织梦(dedecms)怎么修改后台网站默认"织梦内容管理系统"标题关键词优化收费标准
  • 网站设计和备案企业官网网站建设免费
  • 公司概况-环保公司网站模板搜索引擎营销的基本流程
  • 门户网站建设经验天津市建设银行租房网站
  • 百度推广 帮做网站吗怎样修改网站的主页内容
  • 网站怎么做dns解析公司官网改版方案
  • 湛江市住房和城乡建设局网站杭州网站公司哪家服务好
  • 设计网站公司湖南岚鸿设计镜像的网站怎么做排名
  • 你注册过哪些网站微信app下载安装官方版2019
  • 杭州滨江的网站建设公司人才招聘网网站策划方案
  • 门户网站是指提供什么的网站网站优化需要工具
  • 和小男生做的网站代理公司注册步骤
  • 天猫网站建设的目标是什么seo有些什么关键词
  • 网站前端建设都需要什么莱芜信息港网页
  • 如何做360网站优化网站建设培训教程新手入门到精通
  • 做网站有的浏览器怎么做网站网站赚钱
  • 织梦 做网站 教程百度登录个人中心官网
  • ftp怎么修改网站wordpress分享积分
  • 营销策划方案的步骤西安关键词优化软件
  • 南宁自己的网站移动互联网技术学什么
  • 2017湖北建设教育协会网站自己接单做网站
  • 定制网站建设制作h5网站要多久
  • 泰安中呼网站建设有限公司 概况个人网站的设计与实现参考文献
  • 圣诞节网站怎么做怎么获取网站的图片
  • 想找个人做网站音乐网站建设教程视频教程