当前位置: 首页 > news >正文

代刷网站只做软件电影采集网站怎么做seo

代刷网站只做软件,电影采集网站怎么做seo,做商城网站带宽,qq个人中心网页版目录 一、ELK 简介 1.1 组件说明 1.2 为什么要使用ELK 1.3 完整日志系统的基本特征 1.4 ELK工作原理 二、Elasticsearch的介绍 2.1 Elasticsearch的核心: 三、Logstash 3.1 Logstash简介 四、Kibana 五、部署ELK日志分析系统 5.1 服务器配置 5.2 ELK Elasticse…目录 一、ELK 简介  1.1  组件说明 1.2 为什么要使用ELK 1.3 完整日志系统的基本特征 1.4 ELK工作原理 二、Elasticsearch的介绍 2.1 Elasticsearch的核心: 三、Logstash 3.1 Logstash简介 四、Kibana 五、部署ELK日志分析系统 5.1 服务器配置 5.2  ELK Elasticsearch 集群部署在Node1、Node2节点上操作 5.3 安装 Elasticsearch-head 插件node1为例 六、ELK Logstash 部署在 Apache 节点上操作  6.1 测试 Logstash  七、ELK-Kibana 部署在 node1 节点上操作 一、ELK 简介  ELK平台是一套完整的日志集中处理解决方案将 ElasticSearch、Logstash 和 Kiabana 三个开源工具配合使用 完成更强大的用户对日志的查询、排序、统计需求。 1.1  组件说明 ElasticSearch 是基于Lucene (一个全文检索引擎的架构) 开发的分布式存储检索引擎用来存储各类日志。Elasticsearch 是用 Java 开发的可通过 RESTful Web 接口让用户可以通过浏览器与Elasticsearch 通信。Elasticsearch是一个实时的、分布式的可扩展的搜索引擎允许进行全文、结构化搜索它通常用于索引和搜索大容量的日志数据也可用于搜索许多不同类型的文档。 Kiabana Kibana 通常与 Elasticsearch 一起部署Kibana 是 Elasticsearch的一个功能强大的数据可视化 DashboardKibana 提供图形化的 web 界面来浏览 Elasticsearch日志数据可以用来汇总、分析和搜索重要数据。 Logstash 作为数据收集引擎。它支持动态的从各种数据源搜集数据并对数据进行过滤、分析、丰富、统一格式等操作然后存储到用户指定的位置一般会发送给 Elasticsearch。Logstash 由 Ruby 语言编写运行在 Java 虚拟机 (JVM) 上是一款强大的数据处理工具可以实现数据传输、格式处理、格式化输出。Logstash 具有强大的插件功能常用于日志处理。 可以添加的其它组件 Eilebeat: 轻量级的开源日志文件数据搜集器。通常在需要采集数据的客户端安装并指定目录与日志格式Eilebeat 就能快速收集数据并发送给 logstashFilebeat进行解析或是直接发给 Elasticsearch 存储性能上相比运行于 JVM 上的 logstash优势明显是对它的替代。常应用于 EELK 架构当中。 filebeat 结合 loqstash 带来好处: 通过 Logstash 具有基于磁盘的自适应缓冲系统该系统将吸收传入的吞吐量从而减轻Elasticsearch 持续写入数据的压力从其他数据源(例如数据库s3对象存储或消息传递队列) 中提取将数据发送到多个目的地例如S3HDES (Hadoop分布式文件系统) 或写入文件使用条件数据流逻辑组成更复杂的处理管道 缓存/消息队列 (redis、kafka、Rabbitmo等)可以对高并发日志数据进行流量削峰和缓冲这样的缓冲可以一定程度的保护数据不丢失还可以对整个架构进行应用解耦。Fluentd是一个流行的开源数据收集器。由于 logstash 太重量级的缺点Logstash性能低、资源消耗比较多等问题随后就有 Fluentd 的出现。相比较 logstashEluentd更易用、资源消耗更少、性能更高在数据处理上更高效可靠受到企业欢迎成为 logstash的一种替代方案常应用于 EEK 架构当中。在 Kubernetes 集群中也常使用 EEK作为日志数据收集的方案。在 Kubernetes 集群中一般是通过 DaemonSet 来运行 Eluentd以便它在每个 Kubernetes工作节点上都可以运行一个 Pod。它通过获取容器日志文件、过滤和转换日志数据然后将数据传递到 Elasticsearch集群在该集群中对其进行索引和存储。它通过获取容器日志文件、过滤和转换日志数据然后将数据传递到 Elasticsearch集群在该集群中对其进行索引和存储。 1.2 为什么要使用ELK 日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷性能安全性从而及时采取措施纠正错误。往往单台机器的日志我们使用grep、awk等工具就能基本实现简单分析但是当日志被分散的储存不同的设备上。如果你管理数十上百台服务器你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理例如: 开源的syslog将所有服务器上的日志收集汇总。集中化管理日志后日志的统计和检索又成为一件比较麻烦的事情一般我们使用grep、awk和wc等Linux命令能实现检索和统计但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。一般大型系统是一个分布式部署的架构不同的服务模块部署在不同的服务器上问题出现时大部分情况需要根据问题暴露的关键信息定位到具体的服务器和服务模块构建一套集中式日志系统可以提高定位问题的效率。  1.3 完整日志系统的基本特征 收集能够采集多种来源的日志数据传输能够稳定的把日志数据解析过滤并传输到存储系统存储存储日志数据分析支持 UI 分析警告能够提供错误报告监控机制 1.4 ELK工作原理 在所有需要收集日志的服务器上部署Logstash; 或者先将日志进行集中化管理在日志服务器上在日志服务器上部署 Logstash。Logstash 收集日志将日志格式化并输出到 Elasticsearch 群集中Elasticsearch 对格式化后的数据进行索引和存储。Kibana 从 ES 群集中查询数据生成图表并进行前端数据的展示。  二、Elasticsearch的介绍 提供了一个分布式多用户能力的全文搜索引擎 2.1 Elasticsearch的核心: 接近实时NRT Elasticsearch是一个接近实时的搜索平台这意味着从索引一个文档直到这个文档能够被搜索到有一个轻微的延迟通常是1秒 集群cluster 一个集群就是由一个或者多个节点组织在一起它们共同持有你整个的数据并一起提供索引和搜索功能。其中一个为主节点这个主节点是可以通过选举产生的并提供跨节点的联合索引和搜索功能。 集群有一个唯一性标示的名字默认是Elasticsearch集群的名字很重要每个节点是基于集群名字加入到集群中的。因此确保在不同的环境中使用不同的集群名字。 一个集群可以只有一个节点建议在配置Elasticsearch时配置成集群模式。 Elasticsearch具有集群机制节点通过集群名称加入到集群中同时在集群中的节点会有一个自己唯一的身份标识自己的名称 节点node 节点就是一台单一的服务器是集群的一部分存储数据并参与集群的索引和搜索功能。像集群一样节点也是通过名字来标识默认是在节点启动时随机分配的字符名。也可自己定义名字很重要在集群中用于识别服务器对应的节点  节点可以通过指定集群名字来加入到集群中。默认情况下每个节点被设置成加入到Elasticsearch集群。如果启动了多个节点假设能自动发现对方他们将会自动组建一个名为Elasticsearch的集群。 索引index 一个索引就是一个拥有几分相似特征的文档的集合。  一个索引由一个名字来标识必须全部是小写字母并且当我们要对对应于这个索引中的文档进行索引、搜索、更新和删除的时候。都要使用到这个名字。在一个集群中可以定义任意多的索引。 类型type 在一个索引中你可以定义一种或多种类型。一个类型是你的索引的一个逻辑上的分类/分区其语义完全由你来定。 通常会为具有一组共同字段的文档定义一个类型。 文档document 一个文档是一个可被索引的基础信息单元  在一个index/type里面只要你想你可以存储任意多的文档。注意虽然一个文档在物理上位于一个索引中实际上一个文档必须在一个索引内被索引和分配一个类型 分片和副本shards replicas也是es作为搜索引擎比较快的原因 实际情况下索引存储的数据可能超过单个节点的硬件限制。为了解决这个问题Elasticsearch提供将索引分成多个分片的功能。当在创建索引时可以定义想要的分片数量。每一个分片就是一个全功能的独立的索引可以位于集群中任何节点上。 分片的主要原因 水平分割扩展增大存储量分布式并跨越分片操作提高性能和吞吐量分布式分片机制和搜索请求的文档如何火鬃完全是由Elasticsearch控制的这些对用户是完全透明的。为了健壮性建议有一个故障切换机制为此Elasticsearch让我们将索引分片复制一份或多份称之为分片副本 分片副本的原因 高可用性以应对分片或者节点故障。处于这个原因分片副本要在不同的节点上增大吞吐量搜索可以并行在所有副本上执行总之每个索引可以被分成多个分片。一个索引可以被复制0次或者多次。一旦复制了每个索引就有了主分片 作为复制源的原来的分片和复制分片主分片的拷贝之别。分片和副本的数量可以在索引创建的时候指定。在索引创建之后你可以在指定任何时候动态的改变副本的数量但是你事后不能改变分片的数量。默认情况下Elasticsearch中的每个索引被分片5个主分片和1个副本这意味着如果你的集群中至少有两个节点你的索引将会有5个主分片和另外的5个副本分片一个完全拷贝这样的话每个索引总共有10个分片。相关概念在关系型数据库和ElasticSearch中的对应关系 关系型数据库Elasticserch数据库database索引index支持全文索引表table类型type数据行row文档document。但不需要固定结构不同文档可以具有不同字段集合数据列cloumn字段field模式schema映像mapping 三、Logstash 3.1 Logstash简介 Logstash由JRuby语言编写基于消息message-based的简单架构并运行在java虚拟机JVM上。不同于分离的代理端agent或主机端serverLogstash可配置单一的代理端与其他开源软件结合以实现不同的功能。是一款强大的数据处理工具、可实现数据传输格式处理格式化输出数据输入、数据加工(如过滤改写等)以及数据输出 常用插件 input收集源数据访问日志、错误日志等Filter Plugin用于过滤日志和格式处理Output输出日志 主要组件 Shipper(日志收集)负责监控本地日志文件的变化及时把日志文件的最新内容收集起来。通常远程代理端agent只需要运行这个组件即可Indexer(日志存储)负责接收日志并写入到本地文件Broker(日志Hub)负责连接多个Shipper和多个IndexerSearch and Storage允许对事件进行搜索和存储Web Interface基于Web的展示界面 四、Kibana Kibana 是用于在 Elasticsearch 中可视化数据的强大工具可通过基于浏览器的界面轻松搜索可视化和探索大量数据。一个针对Elasticsearch的开源分析及可视化平台搜索、查看存储在Elasticsearch索引中的数据通过各种图表进行高级数据分析及展示 Kibana主要功能 Elasticsearch无缝之集成 Kibana架构为Elasticsearch定制可以将任何结构化和非结构化数据加入Elasticsearch索引。Kibana还充分利用了Elasticsearch强大的搜索和分析功能。 整合数据 Kibana能够更好地处理海量数据并据此创建柱形图、折线图、散点图、直方图、饼图和地图。 复杂数据分析。 Kibana提升了Elasticsearch分析能力能够更加智能地分析数据执行数学转换并且根据要求对数据切割分块。 让更多团队成员收益 强大的数据库可视化接口让各业务岗位都能够从数据集合受益。 接口灵活分享更容易 使用Kibana可以更加方便地创建、保存、分享数据并将可视化数据快速交流。 配置简单 Kibana的配置和启用非常简单用户体验非常友好。Kibana自带Web服务器可以快速启动运行。 可视化多数据源 Kibana可以非常方便地把来自Logstash、ES-Hadoop、Beats或第三方技术的数据整合到Elasticsearch支持的第三方技术包括Apache flume、 Fluentd 等。 简单数据导出 Kibana可以方便地导出感兴趣的数据与其它数据集合并融合后快速建模分析发现新结果。 五、部署ELK日志分析系统 5.1 服务器配置 服务器配置主机名ip地址主要软件node1 节点2C/4Gnode1192.168.19.3ElasticSearch、Kibananode2 节点2C/4Gnode2192.168.19.4ElasticSearchapache 节点/apache192.168.19.5 Logstash、Apache 5.2  ELK Elasticsearch 集群部署在Node1、Node2节点上操作 环境准备 #更改主机名、配置域名解析、查看Java环境 Node1节点hostnamectl set-hostname node1 Node2节点hostnamectl set-hostname node2vim /etc/hosts 192.168.19.3 node1 192.168.19.4 node2 注版本问题 java -version #如果没有安装yum -y install java openjdk version 1.8.0_91 OpenJDK Runtime Environment (build 1.8.0_91-b14) OpenJDK 64-Bit Server VM (build 25.91-b14, mixed mode)建议使用jdk 部署 Elasticsearch 软件 1安装elasticsearch—rpm包 #上传elasticsearch-5.5.0.rpm到/opt目录下 cd /opt rpm -ivh elasticsearch-5.5.0.rpm 2加载系统服务 systemctl daemon-reload systemctl enable elasticsearch.service3修改elasticsearch主配置文件 cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bak vim /etc/elasticsearch/elasticsearch.yml --17--取消注释指定集群名字 cluster.name: my-elk-cluster --23--取消注释指定节点名字Node1节点为node1Node2节点为node2 node.name: node1 --33--取消注释指定数据存放路径 path.data: /data/elk_data --37--取消注释指定日志存放路径 path.logs: /var/log/elasticsearch/ --43--取消注释改为在启动的时候不锁定内存 bootstrap.memory_lock: false --55--取消注释设置监听地址0.0.0.0代表所有地址 network.host: 0.0.0.0 --59--取消注释ES 服务的默认监听端口为9200 http.port: 9200 --68--取消注释集群发现通过单播实现指定要发现的节点 node1、node2 discovery.zen.ping.unicast.hosts: [node1, node2]grep -v ^# /etc/elasticsearch/elasticsearch.yml 4创建数据存放路径并授权 mkdir -p /data/elk_data chown elasticsearch:elasticsearch /data/elk_data/ 5启动elasticsearch是否成功开启 systemctl start elasticsearch.service netstat -antp | grep 9200 6查看节点信息 浏览器访问 http://192.168.19.3:9200 、 http://192.168.19.4:9200 查看节点 Node1、Node2 的信息。浏览器访问 http://192.168.19.3:9200/_cluster/health?pretty 、 http://192.168.19.4:9200/_cluster/health?pretty查看群集的健康情况可以看到 status 值为 green绿色 表示节点健康运行。浏览器访问 http://192.168.19.3:9200/_cluster/state?pretty 检查群集状态信息。#使用上述方式查看群集的状态对用户并不友好可以通过安装 Elasticsearch-head 插件可以更方便地管理群集。 5.3 安装 Elasticsearch-head 插件node1为例 ES 在 5.0 版本后插件需要作为独立服务进行安装需要使用 npm 工具NodeJS 的包管理工具安装。安装 Elasticsarch-head 需要提前安装好依赖软件 node 和 phantomjs。node是一个基于 Chrome V8 引擎的 JavaScript 运行环境。phantomjs是一个基于 webkit 的 JavaScriptAPI可以理解为一个隐形的浏览器任何基于 webkit 浏览器做的事情它都可以做到。 编译安装 node #上传软件包 node-v8.2.1.tar.gz 到/opt yum install gcc gcc-c make -y cd /opt tar zxvf node-v8.2.1.tar.gzcd node-v8.2.1/ ./configure make make install 安装 phantomjs前端的框架 #上传软件包 phantomjs-2.1.1-linux-x86_64.tar.bz2 到 cd /opt tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2 -C /usr/local/src/ cd /usr/local/src/phantomjs-2.1.1-linux-x86_64/bin cp phantomjs /usr/local/bin 安装 Elasticsearch-head 数据可视化工具 #上传软件包 elasticsearch-head.tar.gz 到/opt cd /opt tar zxvf elasticsearch-head.tar.gz -C /usr/local/src/ cd /usr/local/src/elasticsearch-head/ npm install 修改 Elasticsearch 主配置文件 vim /etc/elasticsearch/elasticsearch.yml ...... --末尾添加以下内容-- http.cors.enabled: true #开启跨域访问支持默认为 false http.cors.allow-origin: * #指定跨域访问允许的域名地址为所有systemctl restart elasticsearch 启动 elasticsearch-head 服务 #必须在解压后的 elasticsearch-head 目录下启动服务进程会读取该目录下的 gruntfile.js 文件否则可能启动失败。 cd /usr/local/src/elasticsearch-head/ npm run start elasticsearch-head0.0.0 start /usr/local/src/elasticsearch-headgrunt serverRunning connect:server (connect) task Waiting forever... Started connect web server on http://localhost:9100#elasticsearch-head 监听的端口是 9100 netstat -natp |grep 9100 6通过 Elasticsearch-head 查看 Elasticsearch 信息 通过浏览器访问 http://192.168.19.3:9100/ 地址并连接群集。如果看到群集健康值为 green 绿色代表群集很健康。注意有的时候显示未连接这时将 localhost 改成 IP 地址即可 7插入索引 #通过命令插入一个测试索引索引为 index-demo类型为 test。//输出结果如下curl -X PUT localhost:9200/index-demo/test/1?prettypretty -H content-Type: application/json -d {user:zhangsan,mesg:hello world} { _index : index-demo, _type : test, _id : 1, _version : 1, result : created, _shards : { total : 2, successful : 2, failed : 0 }, created : true }浏览器访问 http://192.168.19.3:9100/ 查看索引信息可以看见索引默认被分片5个并且有一个副本。 点击“数据浏览”会发现在node1上创建的索引为 index-demo类型为 test 的相关信息。六、ELK Logstash 部署在 Apache 节点上操作  Logstash 一般部署在需要监控其日志的服务器。在本案例中Logstash 部署在 Apache 服务器上用于收集 Apache 服务器的日志信息并发送到 Elasticsearch。 1更改主机名 hostnamectl set-hostname apache2安装Apahce服务httpd yum -y install httpd systemctl start httpd3安装Java环境 yum -y install java java -version4安装logstash #上传软件包 logstash-5.5.1.rpm 到/opt目录下 cd /opt rpm -ivh logstash-5.5.1.rpm systemctl start logstash.service systemctl enable logstash.serviceln -s /usr/share/logstash/bin/logstash /usr/local/bin/ 6.1 测试 Logstash  Logstash 命令常用选项说明-f通过这个选项可以指定 Logstash 的配置文件根据配置文件配置 Logstash 的输入和输出流-e从命令行中获取输入、输出后面跟着字符串该字符串可以被当做 Logstash 的配置如果是空则默认使用 stdin 作为输入stdout 作为输出-t测试配置文件是否正确然后退出 定义输入和输出流 #输入采用标准输入输出采用标准输出类似管道 logstash -e input { stdin{} } output { stdout{} }#使用 rubydebug 输出详细格式显示codec 为一种编解码器 logstash -e input { stdin{} } output { stdout{ codecrubydebug } } #使用 Logstash 将信息写入 Elasticsearch 中 logstash -e input { stdin{} } output { elasticsearch { hosts[192.168.19.3:9200] } } 定义 logstash配置文件 Logstash 配置文件基本由三部分组成input、output 以及 filter可选根据需要选择使用。 input表示从数据源采集数据常见的数据源如Kafka、日志文件等 filter表示数据处理层包括对数据进行格式化处理、数据类型转换、数据过滤等支持正则表达式 output表示将Logstash收集的数据经由过滤器处理之后输出到Elasticsearch。#格式如下 input {...} filter {...} output {...}#在每个部分中也可以指定多个访问方式。例如若要指定两个日志来源文件则格式如下 input {file { path /var/log/messages type syslog}file { path /var/log/httpd/access.log type apache} }#修改 Logstash 配置文件让其收集系统日志/var/log/messages并将其输出到 elasticsearch 中。 chmod r /var/log/messages #让 Logstash 可以读取日志vim /etc/logstash/conf.d/system.conf input {file{path /var/log/messages #指定要收集的日志的位置type system #自定义日志类型标识start_position beginning #表示从开始处收集} } output {elasticsearch { #输出到 elasticsearchhosts [192.168.19.3:9200] #指定 elasticsearch 服务器的地址和端口index system-%{YYYY.MM.dd} #指定输出到 elasticsearch 的索引格式} }systemctl restart logstash 浏览器访问 http://192.168.19.3:9100/ 查看索引信息 七、ELK-Kibana 部署在 node1 节点上操作 安装 Kibanacd /optrz -E #上传软件包 kibana-5.5.1-x86_64.rpmrpm -ivh kibana-5.5.1-x86_64.rpm 设置 Kibana 的主配置文件cp /etc/kibana/kibana.yml /etc/kibana/kibana.yml.bak #备份配置文件vim /etc/kibana/kibana.yml ##2行取消注释kibana服务的默认监听端口为5601 server.port: 5601 ##7行取消注释设置kibana的监听地址0.0.0.0代表所有地址 server.host: 0.0.0.0 ##21行取消注释设置和ES建立连接的地址和端口 elasticsearch.url: http://192.168.223.9:9200 ##30行取消注释设置在ES中添加.kibana索引 kibana.index: .kibana启动 Kibana 服务 systemctl start kibana.service systemctl enable kibana.service netstat -natp | grep 5601 验证 Kibana 浏览器访问 http://192.168.19.3:5601第一次登录需要添加一个 ES 索引点击 create 创建索引添加完成后点击 Discover 按钮可查看图表信息及日志信息数据展示可以分类显示例如在 Available Fileds 中的 host 将 Apache 服务器的日志访问的、错误的添加到 ES 并通过 Kibana 显示 apache 服务器[rootapache opt]# vim /etc/logstash/conf.d/apache_log.confnput {beats {port 5044} } output {elasticsearch {hosts [192.168.19.3:9200]index %{[fields][service_name]}-%{YYYY.MM.dd}}stdout {codec rubydebug} }[rootapache opt]# cd /etc/logstash/conf.d [rootapache conf.d]# /usr/share/logstash/bin/logstash -f apache_log.conf ······
http://www.w-s-a.com/news/154214/

相关文章:

  • 怎样开通自己的网站网址导航哪个主页最好
  • 大良o2o网站建设详情页设计说明怎么写
  • 您与此网站之间建立的连接不安全汽车cms系统是什么意思
  • 有没有做logo的网站企业网站的内容营销
  • 哈尔滨做企业网站怎么做网站自动响应
  • 网站建设硬件和软件技术环境配置签约做网站模板
  • 教育网站建设的素材手机app制作流程
  • 免费行情软件网站大全下载网站备案查询
  • flex网站模板wordpress实时预览
  • 建设银行网站模板为什么企业要建设自己的企业文化
  • 网站建设必知免费手机网站建站系统
  • ssh可以做wap网站么嘉兴seo排名
  • 站内优化包括哪些帝国做企业网站
  • 做网站seo赚钱吗网络维护和故障维修
  • 企业网站可以自己做摄影网站开发背景怎么写
  • 网站百度指数seo最好的工具
  • 宝安专业网站建设推荐设计感强的网站
  • 网站建设 6万元北京知名的品牌设计公司
  • 网站建设的总体需求是什么vmware 下wordpress
  • 光谷网站建设请检查网络
  • 申请建设网站的报告书商务网站开发课程体会
  • 网站开发实训总结致谢群晖wordpress设置
  • 关于酒店网站建设的摘要天津市建设工程信息网官网首页
  • 网站alexa排名查询手机网站制作器
  • 建设小辣猫的网站电子毕业设计网站建设
  • 询广西南宁网站运营礼品定制
  • 建筑公司网站作用免费查看招标信息的网站
  • 建筑设计公司名字起名大全html网站 怎么做seo
  • 网站群建设模板迁移原站迁移pc巩义网站建设案例课堂
  • 烟台高端网站开发wordpress 设置权限