当前位置: 首页 > news >正文

西安广告网站制作wordpress添加继续阅读

西安广告网站制作,wordpress添加继续阅读,阿里巴巴运营技巧,做好网站如何发布文章目录 架构选型ELKEFLK ElasticsearchES集群搭建常用命令 Filebeat功能介绍安装步骤Filebeat配置详解filebeat常用命令 Logstash功能介绍安装步骤Input插件Filter插件Grok Filter 插件Mutate Filter 插件常见的插件配置选项#xff1a;Mutate Filter配置案例#xff1a; O… 文章目录 架构选型ELKEFLK ElasticsearchES集群搭建常用命令 Filebeat功能介绍安装步骤Filebeat配置详解filebeat常用命令 Logstash功能介绍安装步骤Input插件Filter插件Grok Filter 插件Mutate Filter 插件常见的插件配置选项Mutate Filter配置案例 Output插件 Kibana功能介绍安装步骤 架构选型 ELK “ELK” 是三个开源项目的首字母缩写这三个项目分别是Elasticsearch、Logstash 和 Kibana。 Elasticsearch 是一个搜索和分析引擎。Logstash 是服务器端数据处理管道能够同时从多个来源采集数据转换数据然后将数据发送到Elasticsearch、kafka等。Kibana 则可以让用户在 Elasticsearch 中使用图形和图表对数据进行可视化。 一套日志采集系统需要具备以下5个功能 收集 能够采集多个来源的日志数据。传输 能够稳定的把日志数据传输到日志服务。存储 能够存储海量的日志数据。查询 能够灵活且高效的查询日志数据并提供一定的分析能力。告警 能够提供提供告警功能通知开发和运维等等 Elastic官网https://www.elastic.co/cn/what-is/elk-stack EFLK 在采集日志数据时我们需要在服务器上安装一个 Logstash。不过 Logstash 是基于 JVM 的重量级的采集器对系统的 CPU、内存、IO 等等资源占用非常高这样可能影响服务器上的其它服务的运行。所以Elastic NV 推出 Beats 基于 Go 的轻量级采集器对系统的 CPU、内存、IO 等等资源的占用基本可以忽略不计。因此本文的示例就变成了 ELFK 。其中Beats 负责采集数据并通过网路传输给 Logstash。即整体架构 Beats 是一个全品类采集器的系列包含多个使用 Filebeat采集日志文件 Filebeat 轻量型日志采集器。√Metricbeat 轻量型指标采集器。Packetbeat 轻量型网络数据采集器。Winlogbeat 轻量型 Windows 事件日志采集器。Auditbeat 轻量型审计日志采集器。Heartbeat 面向运行状态监测的轻量型采集器。Functionbeat 面向云端数据的无服务器采集器。 Elasticsearch ES集群搭建 参考Elasticsearch7.x - 集群部署 - lihewei - 博客园 (cnblogs.com) 常用命令 启动 Elasticsearch 服务 # 使用命令行启动 Elasticsearch 服务 elasticsearch# 或者使用 systemd根据您的操作系统 sudo systemctl start elasticsearch停止 Elasticsearch 服务 # 使用命令行停止 Elasticsearch 服务 CtrlC# 或者使用 systemd根据您的操作系统 sudo systemctl stop elasticsearch检查 Elasticsearch 集群健康状态 # 使用 curl 命令检查集群健康状态 curl -X GET http://localhost:9200/_cat/health?v查看节点信息 shellCopy code # 使用 curl 命令查看节点信息 curl -X GET http://localhost:9200/_cat/nodes?v 创建索引 # 使用 curl 命令创建一个名为 my_index 的索引 curl -X PUT http://localhost:9200/my_index删除索引 # 使用 curl 命令删除名为 my_index 的索引 curl -X DELETE http://localhost:9200/my_index索引文档 # 使用 curl 命令索引一篇文档到 my_index 索引中 curl -X POST http://localhost:9200/my_index/_doc -d {field1: value1,field2: value2 }搜索文档 # 使用 curl 命令执行搜索查询 curl -X GET http://localhost:9200/my_index/_search?qfield1:value1查看索引的映射Mapping # 使用 curl 命令查看索引 my_index 的映射 curl -X GET http://localhost:9200/my_index/_mapping查看索引的统计信息 # 使用 curl 命令查看索引 my_index 的统计信息 curl -X GET http://localhost:9200/my_index/_stats查看索引中的文档数量 # 使用 curl 命令查看索引 my_index 中的文档数量 curl -X GET http://localhost:9200/my_index/_count聚合数据 # 使用 curl 命令执行聚合操作 curl -X POST http://localhost:9200/my_index/_search -d {size: 0,aggs: {avg_field2: {avg: {field: field2}}} }更新文档 # 使用 curl 命令更新文档 curl -X POST http://localhost:9200/my_index/_update/1 -d {doc: {field1: new_value} }删除文档 # 使用 curl 命令删除文档 curl -X DELETE http://localhost:9200/my_index/_doc/1Filebeat 功能介绍 Filebeat是一个轻量型日志采集器负责采集数据并通过网路传输给 Logstash。 安装步骤 1官网下载https://www.elastic.co/cn/downloads/beats/filebeat 2解压tar -zxvf filebeat-7.5.1-darwin-x86_64.tar.gz 3修改配置 filebeat.inputs: - type: logenabled: truepaths:- /home/crbt/logs/crbtRingSync/wrapper.logfields:log_source: vrbt-rd1-hbbjlog_topic: crbt-web-logoutput.kafka:hosts: [10.1.61.121:9092]topic: %{[fields.log_topic]}Filebeat配置详解 filebeat.inputs 配置项设置 Filebeat 读取的日志来源。该配置项是数组类型可以将 Nginx、MySQL、Spring Boot 每一类作为数组中的一个元素。output.elasticsearch 配置项设置 Filebeat 直接写入数据到 Elasticsearch 中。虽然说 Filebeat 5.0 版本以来也提供了 Filter 功能但是相比 Logstash 提供的 Filter 会弱一些。所以在一般情况下Filebeat 并不直接写入到 Elasticsearch 中output.logstash 配置项设置 Filebeat 写入数据到 Logstash 中output.kafka配置项设置Filebeat 写入数据到 kafka 中 filebeat常用命令 # 启动filebeat nohup ./filebeat -e # -e 参数表示以前台模式运行 -c 指定配置文件 ./filebeat -e -c /home/crbt/lihewei/filebeat-7.5.1-linux-x86_64/filebeat.yml ./filebeat -e -c filebeat.yml# 查看filebeat是否正常启动 curl http://localhost:5066/ ps -ef | grep filebeatLogstash 功能介绍 Logstash 是开源的服务器端数据处理管道能够同时从多个来源采集数据转换数据然后将数据发送到喜欢的“存储库”中。通过定义了一个 Logstash 管道Logstash Pipeline来读取、过滤、输出数据。一个 Logstash Pipeline 包含三部分 【必选】输入Input 数据包含但不限于日志往往都是以不同的形式、格式存储在不同的系统中而 Logstash 支持从多种数据源中收集数据File、Syslog、MySQL、消息中间件等等【可选】过滤器Filter 实时解析和转换数据识别已命名的字段以构建结构并将它们转换成通用格式。【必选】输出Output Elasticsearch 并非存储的唯一选择Logstash 提供很多输出选择。 安装步骤 1下载 https://www.elastic.co/cn/products/logstash 2解压unzip logstash-7.5.1.zip 3修改配置文件 在 config 目录下提供了 Logstash 的配置文件其中logstash-sample.conf 配置文件是 Logstash 提供的 Pipeline 配置的示例 crbtnode2:/home/crbt/lihw/logstash-7.5.1/configll total 40 -rw-r--r-- 1 crbt crbt 2019 Dec 17 2019 jvm.options -rw-r--r-- 1 crbt crbt 7482 Dec 17 2019 log4j2.properties -rw-rw-r-- 1 crbt crbt 843 Sep 15 19:07 logstash.conf -rw-r--r-- 1 crbt crbt 342 Dec 17 2019 logstash-sample.conf -rw-r--r-- 1 crbt crbt 8372 Sep 15 10:53 logstash.yml -rw-r--r-- 1 crbt crbt 3146 Dec 17 2019 pipelines.yml -rw-r--r-- 1 crbt crbt 1696 Dec 17 2019 startup.optionscrbtnode2:/home/crbt/lihw/logstash-7.5.1/configcat logstash-sample.conf # Sample Logstash configuration for creating a simple # Beats - Logstash - Elasticsearch pipeline.#日志消息从哪里来这里使用filebeat进行日志收集 input {beats {port 5044} }#日志信息输出到哪里去这里写入es数据库 output {elasticsearch {hosts [http://10.1.61.121:9200]index %{[metadata][beat]}-%{[metadata][version]}-%{YYYY.MM.dd}} }4指定配置文件并启动logstashW # 启动logstash服务指定自定义的配置文件logstash.conf ./logstash -f ../config/logstash.conf# 后台启动logstash服务 nohup ./logstash -f ../config/logstash.conf Input插件 Logstash 的 input 插件用于从不同的数据源中接收数据并将其发送到 Logstash 事件流中供进一步处理。每个 input 插件都有其特定的配置选项以适应不同类型的数据源修改自定义的配置文件即可生效下面仅列举了几个常用输入方法 File Input 插件用于从本地文件读取数据。 input {file {path /path/to/your/logfile.logstart_position beginningsincedb_path /dev/null} }Beats Input 插件用于接收来自 Elastic Beats 系列工具如 Filebeat、Metricbeat的数据。 input {beats {port 5044} }Kafka Input 插件用于从 Apache Kafka 主题中消费数据。 input {kafka {bootstrap_servers kafka-server:9092topics [your-topic]} }Filter插件 Logstash 的 filter 插件用于对接收的事件进行处理、转换和丰富以便更好地进行索引和分析。每个 filter 插件都有其特定的配置选项以适应不同的数据处理需求。以下是一些常见的 Logstash filter 插件及其配置示例 Grok Filter 插件 Logstash 的 Grok Filter 插件用于从非结构化的文本数据中提取结构化的字段。 filter {grok {match { message %{COMBINEDAPACHELOG} }} }Mutate Filter 插件 常见的插件配置选项 add_field添加新字段到事件中并指定字段的名称和值。 rubyCopy code mutate {add_field { new_field New Value } }remove_field从事件中删除指定字段。 rubyCopy code mutate {remove_field [ field1, field2 ] }rename重命名事件中的字段将字段从旧名称改为新名称。 rubyCopy code mutate {rename { old_field new_field } }copy复制字段的值到新的字段中。 rubyCopy code mutate {copy { source_field destination_field } }replace替换字段的值为新的值。 rubyCopy code mutate {replace { field_to_replace new_value } }update更新字段的值为新的值类似于替换操作。 rubyCopy code mutate {update { field_to_update new_value } }convert将字段的数据类型转换为指定的类型。 rubyCopy code mutate {convert { numeric_field integer } }gsub使用正则表达式替换字段中的文本。 rubyCopy code mutate {gsub [ field_to_modify, pattern_to_replace, replacement_text ] }uppercase/lowercase将字段值转换为大写或小写。 rubyCopy code mutate {uppercase [ field_to_uppercase ]lowercase [ field_to_lowercase ] }strip删除字段值两端的空格。 rubyCopy code mutate {strip [ field_to_strip ] }Mutate Filter配置案例 用于对字段进行修改、重命名和删除。 filter {mutate {add_field { new_field New Value }rename { user username }remove_field [ message ]} }在上面的配置中我们使用 Mutate Filter 插件执行了以下操作 add_field我们添加了一个名为 “new_field” 的新字段并将其值设置为 “New Value”。此时事件将变为rename我们重命名了 “user” 字段为 “username”。此时事件将变为remove_field我们删除了 “message” 字段。此时事件将不再包含 “message” 字段。 #过滤前 {message: Log entry,user: john_doe,status: success,response_time_ms: 45 }#过滤后 {username: john_doe,status: success,response_time_ms: 45,new_field: New Value }Output插件 Logstash 的 output 插件用于将处理过的事件发送到各种目标如 Elasticsearch、文件、数据库等。每个 output 插件都有其特定的配置选项以适应不同的目标和需求。以下是一些常见的 Logstash output 插件及其配置示例 Elasticsearch Output 插件用于将事件发送到 Elasticsearch 集群。 output {elasticsearch {hosts [http://localhost:9200]index my_index} }File Output 插件用于将事件写入本地文件。 output {file {path /path/to/output/file.txt} }Kafka Output 插件用于将事件发送到 Apache Kafka 主题。 rubyCopy code output {kafka {topic_id my_topicbootstrap_servers kafka-server:9092} }​ Kibana 功能介绍 通过 Kibana您可以对自己的 Elasticsearch 进行可视化也可以通过插件的方式查看es 安装步骤 1官网下载https://www.elastic.co/cn/products/kibana 2解压 tar -zxvf kibana-7.5.1-darwin-x86_64.tar.gz 3修改配置vi config/kibana.yml 命令编辑 Kibana 配置文件 server.port: 5601 server.host: 0.0.0.0 elasticsearch.hosts: [http://localhost:9200] kibana.index: .kibana4启动Kibananohup bin/kibana 命令后台启动 Kibana 服务。 nohup bin/kibana nohup ./kibana ps aux | grep kibana5测试访问 http://10.1.61.122:5601/ 地址查看 Kibana 是否启动成功
http://www.w-s-a.com/news/843064/

相关文章:

  • 唐山建站公司模板ipfs做网站
  • 贵阳做网站品牌网站模板
  • 紫网站建设我的个人博客
  • 优秀网站菜单网页上的视频怎么下载
  • 龙口建网站公司价格国内的平面设计网站
  • 电子商务网站建设与管理读后感上海市基础工程公司
  • 织梦免费企业网站做网站时,404网页如何指向
  • 摄影工作室网站源码百度为什么会k网站
  • 哪个网站有淘宝做图的素材网站分享做描点链接
  • 做哪个网站零售最好网站空间在哪里
  • 荆州网站建设多少钱南阳做网站推广
  • 网站代理打开个人网站设计源码
  • 做php网站的话要学什么语言wordpress搜索不到
  • 金华官方网站建设网络营销策划模板
  • 网站开发到上线在线生成小程序
  • 动易网站设计方案郑州营销网站建设
  • 怎么上网站做简易注销的步骤郑州大学现代远程教育《网页设计与网站建设》课程考核要求
  • 新乡网站建设新乡长沙本地论坛有哪些
  • 潍坊中企动力做的网站怎么样wordpress接入微博
  • 网站开发者所有权归属网站项目建设的必要性
  • 菜鸟网站编程广州网站设计权威乐云践新
  • 网站做接口到app 价格大地资源免费视频观看
  • 怎么给钓鱼网站做防红网站建设相关的
  • 教育培训的网站建设湖南网站建设小公司
  • 福建南平网站建设创意交易平台网
  • 做直播网站要哪些技术内容营销理论
  • 价格划算的网站开发怎么找有赞做网站
  • 做网站店铺图片用什么软件网络营销方案格式
  • 做外贸要自己建网站吗有效的网络营销方式
  • 精通网站开发书籍做网站获取手机号码