当前位置: 首页 > news >正文

现在还有做静态网站的wordpress 分类 输出

现在还有做静态网站的,wordpress 分类 输出,珠海绿网科技有限公司,站长工具樱花本次在CentOS7.6上搭建Kafka集群 Apache Kafka 是一个高吞吐量的分布式消息系统#xff0c;被广泛应用于大规模数据处理和实时数据管道中。本文将介绍在CentOS操作系统上搭建Kafka集群的过程#xff0c;以便于构建可靠的消息处理平台。 文件分享#xff08;KafkaUI、kafka…本次在CentOS7.6上搭建Kafka集群 Apache Kafka 是一个高吞吐量的分布式消息系统被广泛应用于大规模数据处理和实时数据管道中。本文将介绍在CentOS操作系统上搭建Kafka集群的过程以便于构建可靠的消息处理平台。 文件分享KafkaUI、kafka3.3.2、jdk1.8 链接https://pan.baidu.com/s/1dn_mQKc1FnlQvuSgGjBc1w?pwdt2v9 提取码t2v9 也可以从官网自己下 Kafka官网 步骤概览 本次使用三台机器 hostname别名分别为res0110.41.7.41、res0210.41.7.42、res0310.41.7.43 在这个教程中我们将覆盖以下主要步骤 准备环境安装和配置Java、Zookeeper和Kafka所需的依赖。配置Zookeeper集群确保Kafka有可靠的分布式协调服务。本次使用Kafka自带的zookeeper配置Kafka集群在每个节点上安装和配置Kafka设置Kafka集群以实现高性能和高可用性。 步骤详解 步骤1环境准备 先对第一台服务器操作 其他的使用scp传输之后进行小修改就好 安装Java 确保Java安装正确并设置JAVA_HOME环境变量。 如果对于jdk安装有问题的可以看一下这篇Linux安装MySQL、JDK含环境变量配置、Tomcat 步骤2安装Kafka 下载和解压Kafka [rootres01 module]# clear [rootres01 module]# ll 总用量 104124 drwxr-xr-x. 4 root root 40 11月 10 10:07 data -rw-r--r--. 1 root root 106619987 11月 10 10:33 kafka_2.13-3.3.2.tgz [rootres01 module]# tar -zxvf kafka_2.13-3.3.2.tgz 解压之后通过mv改名 步骤3配置zookeeper 进入文件夹kafka3.3.2中找到config 接下来主要修改zookeeper.properties和server.properties这两个文件 zookeeper.properties如下 # 需要去新建/opt/module/data/zookeeper下面这两个文件夹 dataDir/opt/module/data/zookeeper/data dataLogDir/opt/module/data/zookeeper/logs clientPort12181 maxClientCnxns0 admin.enableServerfalse tickTime2000 initLimit10 syncLimit5 # server.Xhostname:peerPort:leaderPort # peerPort 是服务器之间通信的端口。 # leaderPort 是用于选举 leader 的端口。 server.1res01:12182:12183 server.2res02:12182:12183 server.3res03:12182:12183#res01、res02、res03是我本地设置过的主机名 如果没设置使用ip地址即可在每个节点上zookeeper的配置文件中dataDir目录下创建一个名为myid的文件并分别填入相应节点的ID号1、2、3。 步骤4:配置Kafka 编辑Kafka配置文件config/server.properties设置broker.id和zookeeper.connect # 设置 broker.id 这个是 Kafka 集群区分每个节点的唯一标志符。 对应那个myid即可 broker.id1 # 将监听端口设置为19091 listenersPLAINTEXT://res01:19091# 将广告给客户端的地址也设置为19091 advertised.listenersPLAINTEXT://res01:19091num.network.threads3num.io.threads8socket.send.buffer.bytes102400# The receive buffer (SO_RCVBUF) used by the socket server socket.receive.buffer.bytes102400# The maximum size of a request that the socket server will accept (protection against OOM) socket.request.max.bytes104857600############################# Log Basics ############################## 设置 Kafka 的数据存储路径 这个目录下不能有其他非 Kafka 目录不然会导致 Kafka 集群无法启动。 log.dirs/opt/module/data/kafka-log # 默认的 Partition 的个数。 num.partitions3 # 设置默认的复制因子为3 default.replication.factor3num.recovery.threads.per.data.dir1 offsets.topic.replication.factor3 transaction.state.log.replication.factor1 transaction.state.log.min.isr1 # Kafka 的数据保留的时间默认是 7 天 168h。 这里使用24小时 log.retention.hours24log.retention.check.interval.ms300000 # Kafka 连接的 ZooKeeper 的地址和连接 Kafka 的超时时间。 zookeeper.connectres01:12181,res02:12181,res03:12181 zookeeper.connection.timeout.ms6000group.initial.rebalance.delay.ms0 # 设置是否可以删除 Topic默认 Kafka 的 Topic 是不允许删除的 这里打开了 delete.topic.enabletrue# 这是用于启用或禁用日志清理的选项默认值为 true以确保 Kafka 持续进行日志清理。需要根据实际需求进行设置。 log.cleaner.enabletrue # 这个参数控制日志清理线程的数量。对于你的硬件配置你可以考虑设置为 4 或 8 来充分利用服务器的性能。 log.cleaner.threads4 # 这个参数用于控制日志清理线程的 IO 缓冲区大小。对于你的硬件配置可以设置为 8192 或 16384。 log.cleaner.io.buffer.size8192 # 这个参数是用来设置主题日志保留的最大字节数。对于控制磁盘空间的使用非常重要。例如如果你希望限制每个主题的数据量不超过 100GB可以设置为 107374182400 log.retention.bytes107374182400 # 这个参数用于控制每个日志段文件的最大大小。对于你的硬件配置你可以设置为 1073741824即 1GB。 log.segment.bytes1073741824 # 这个参数用于设置 Zookeeper 会话的超时时间。对于较大的集群和连接较慢的网络你可以考虑将其设置为 10000即 10 秒。 zookeeper.session.timeout.ms10000重点是这个 # 设置默认的复制因子为3 default.replication.factor3 在Kafka集群的每个节点上修改broker.id为对应的节点ID。 配置kafka环境变量 #java环境 export JAVA_HOME/usr/local/java/jdk1.8 export PATH$PATH:$JAVA_HOME/bin #kafka环境 export KAFKA_HOME/opt/module/kafka3.3.2 export PATH$PATH:$KAFKA_HOME/bin 步骤5复制虚拟机 已有其他服务器的直接连网线scp就好 环境变量 配置小改一下就好 还有hosts、ip等等别忘了配置我这里直接复制虚拟机了 配置ip、hostname以及hosts后尝试ping res02修改kafka的config文件即可zookeeper配置文件都一样 用res01配置的就好 res03的kafka配置文件同理 以及各台机器的myid对应上brokerId即可 步骤6配置Kafka集群 确保防火墙或安全组允许Kafka端口通过通常是9092端口。我这是修改过的为19091我直接关防火墙了 方便。 systemctl stop firewalld.service #关闭运行的防火墙 systemctl disable firewalld.service #永久关闭防火墙 本次使用的是绝对路径 各位可以到kafka目录下执行命令 去掉前面的绝对路径就好 zookeeper命令 在每个机器上先启动zookeeper /opt/module/kafka3.3.2/bin/zookeeper-server-stop.sh #停止命令 /opt/module/kafka3.3.2/bin/zookeeper-server-start.sh /opt/module/kafka3.3.2/config/zookeeper.properties #启动命令 /opt/module/kafka3.3.2/bin/zookeeper-server-start.sh -daemon /opt/module/kafka3.3.2/config/zookeeper.properties #后台启动命令 常用~ 统一启动后jps查看进程 Kafka命令 在每个Kafka节点上启动Kafka服务器 /opt/module/kafka3.3.2/bin/kafka-server-start.sh /opt/module/kafka3.3.2/config/server.properties #kafka启动命令 /opt/module/kafka3.3.2/bin/kafka-server-start.sh -daemon /opt/module/kafka3.3.2/config/server.properties #kafka后台启动命令 常用~ /opt/module/kafka3.3.2/bin/kafka-server-stop.sh #停止命令 统一启动后jps查看进程 创建主题 使用kafka-topics.sh命令创建一个主题这里设置的复制因子为3  bin/kafka-topics.sh --create --topic 你的topic--bootstrap-server res01:19091--replication-factor 3 --partitions 3 验证Kafka集群 使用生产者和消费者验证Kafka集群的功能 # 启动生产者 bin/kafka-console-producer.sh --topic myTopic --bootstrap-server res01:19091# 启动消费者 bin/kafka-console-consumer.sh --topic myTopic --bootstrap-server res01:19091--from-beginning 停止 Zookeeper /opt/module/kafka3.3.2/bin/zookeeper-server-stop.sh 启动 Zookeeper /opt/module/kafka3.3.2/bin/zookeeper-server-start.sh /opt/module/kafka3.3.2/config/zookeeper.properties 后台启动 Zookeeper /opt/module/kafka3.3.2/bin/zookeeper-server-start.sh -daemon /opt/module/kafka3.3.2/config/zookeeper.properties 清空 Kafka 日志 rm -rf //opt/module/data/kafka-logs/* 启动 Kafka 服务 /opt/module/kafka3.3.2/bin/kafka-server-start.sh /opt/module/kafka3.3.2/config/server.properties 后台启动 Kafka 服务 /opt/module/kafka3.3.2/bin/kafka-server-start.sh -daemon /opt/module/kafka3.3.2/config/server.properties 停止 Kafka 服务 /opt/module/kafka3.3.2/bin/kafka-server-stop.sh 创建 Topic /opt/module/kafka3.3.2/bin/kafka-topics.sh --create --topic [TOPIC_NAME] --bootstrap-server [SERVER_IP]:[PORT] --partitions [PARTITIONS_SIZE] --replication-factor [REPLICATION_FACTOR] 删除 Topic /opt/module/kafka3.3.2/bin/kafka-topics.sh --delete --topic [TOPIC_NAME] --bootstrap-server [SERVER_IP]:[PORT] 查看 Topic 信息 /opt/module/kafka3.3.2/bin/kafka-topics.sh --describe --topic [TOPIC_NAME] --bootstrap-server [SERVER_IP]:[PORT] 列出所有的 Topic /opt/module/kafka3.3.2/bin/kafka-topics.sh --list --bootstrap-server [SERVER_IP]:[PORT] 控制台生产消息 /opt/module/kafka3.3.2/bin/kafka-console-producer.sh --bootstrap-server [SERVER_IP]:[PORT] --topic [TOPIC_NAME] 控制台消费信息 /opt/module/kafka3.3.2/bin/kafka-console-consumer.sh --bootstrap-server [SERVER_IP]:[PORT] --topic [TOPIC_NAME] --from-beginning 查看副本 /opt/module/kafka3.3.2/bin/kafka-topics.sh --describe --bootstrap-server [SERVER_IP]:[PORT] | grep consumer_offsets 请记住替换 [TOPIC_NAME]、[SERVER_IP]:[PORT]、[PARTITIONS_SIZE]、[REPLICATION_FACTOR] 等位中的值为实际的值。 自己的做的总结如上 运行Java代码生成topic 可以看到分区都是3符合集群要求 运行kafkaui查看详细情况百度网盘链接里有自己输入命令太累了 直接用别人封装好现成的看就好~ 结论 通过这个步骤我们成功地搭建了一个基本的Kafka集群。在实际生产环境中您可能需要进一步调整和优化配置以满足特定需求和性能要求。 希望这个教程可以帮助您成功搭建Kafka集群为您的数据处理和消息传递架构提供强大的基础设施。 最后温馨提示如果你远程服务器起了别名而自己电脑的hosts别名对应其他的服务器 也会发生报错 记得别名对应好ip即可
http://www.w-s-a.com/news/483217/

相关文章:

  • wordpress 网站遭篡改如何优化公司的网站
  • 汉中公司做网站网站建设的风格设置
  • 网站建议怎么写怎么做网页连接
  • 站长工具seo综合查询下载安装软件平台搭建包括哪几个方面
  • 做网站怎么存放视频支付功能网站建设
  • 庆阳手机网站设计兰州网站的优化
  • 企业网站托管有必要吗项目管理资格证书
  • 检索类的网站建设个人博客网页模板图片
  • 贵阳网站建设搜q479185700做网站有什么语言好
  • 制作公司主页网站贵阳网站建设技术托管
  • 广西建设网站网址多少钱南京江北新区地图
  • 网站建设及优化 赣icp外包服务美剧
  • wordpress添加菜单深圳优化网站排名
  • 免费下载建设银行官方网站重点专业建设验收网站
  • 建行官方网站登录怎样制作悬浮的WordPress
  • 建设一个网站需要几个角色广告设计与制作就业前景
  • 侵入别人的网站怎么做怎么修改网站排版
  • 网站如何提交百度收录什么最便宜网站建设
  • 商丘网站建设想象力网络做公司网站需要准备什么
  • 滁州新手跨境电商建站哪家好网站推广运作怎么做
  • 烟台有没有做网站大连建设工程信息网专家库
  • 网站建设明确细节商贸有限公司的经营范围
  • 南宁微网站开发做的好的有哪些网站
  • 好的素材下载网站读书网网站建设策划书
  • 东莞南城网站建设wordpress用户投稿插件
  • 开个网站做代理赚钱吗沽源网站建设
  • 做卖车网站需要什么手续wordpress 主题 demo
  • 上海外贸网站开发公司建设内容
  • 网站制作品牌公司网站的字体颜色
  • 外贸wordpress模板常德seo快速排名