当前位置: 首页 > news >正文

免费营销软件网站做投融资平台的网站都有哪些?

免费营销软件网站,做投融资平台的网站都有哪些?,做特价网站,网站建设策划包括哪些内容一、window 安装 1.1、下载安装包 下载kafka 地址#xff0c;其中官方版内置zk#xff0c; kafka_2.12-3.4.0.tgz其中这个名称的意思是 kafka3.4.0 版本 #xff0c;所用语言 scala 版本为 2.12 1.2、安装配置 1、解压刚刚下载的配置文件#xff0c;解压后如下#x…一、window 安装 1.1、下载安装包 下载kafka 地址其中官方版内置zk kafka_2.12-3.4.0.tgz其中这个名称的意思是 kafka3.4.0 版本 所用语言 scala 版本为 2.12 1.2、安装配置 1、解压刚刚下载的配置文件解压后如下其中 data和kafka-logs 这两个文件是没有的 2、修改配置进入到config目录 修改service.properties里面log.dirs路径未 log.dirsF:\kafka\installSurround\kafka3.4.0\kafka-logs该目录是kafka的数据存储目录 修改zookeeper.properties里面dataDir路径为 dataDirF:\kafka\installSurround\kafka3.4.0\data该目录是 zookeeper存储的kafka的数据目录 3、server.properties说明 属性说明log.dirs指定Broker需要使用的若干个文件目录路径没有默认值必须指定。在生产环境中一定要为log.dirs配置多个路径如果条件允许需要保证目录被挂载到不同的物理磁盘上。优势在于提升读写性能多块物理磁盘同时读写数据具有更高的吞吐量能够实现故障转移FailoverKafka 1.1版本引入Failover功能坏掉磁盘上的数据会自动地转移到其它正常的磁盘上而且Broker还能正常工作基于Failover机制Kafka可以舍弃RAID方案。zookeeper.connectCS格式参数可以指定值为zk1:2181,zk2:2181,zk3:2181不同Kafka集群可以指定zk1:2181,zk2:2181,zk3:2181/kafka1chroot只需要写一次。listeners设置内网访问Kafka服务的监听器。advertised.listeners设置外网访问Kafka服务的监听器。auto.create.topics.enable是否允许自动创建Topic。unclean.leader.election.enable是否允许Unclean Leader 选举。auto.leader.rebalance.enable是否允许定期进行Leader选举生产环境中建议设置成false。log.retention.{hoursminuteslog.retention.bytes指定Broker为消息保存的总磁盘容量大小。message.max.bytes控制Broker能够接收的最大消息大小。 1.3、启动 1、 启动脚本都在bin目录的window目录下一定要先启动 zookeeper再启动kafka 如果是linux不使用window下的命令即可使用对应的 xxxx.sh 即可 2、首先启动zookeeper .\bin\windows\zookeeper-server-start.bat .\config\zookeeper.properties3、在启动kafka .\bin\windows\kafka-server-start.bat .\config\server.properties二、linux 安装 暂略 三、docker 安装 暂略 四、docker 安装 暂略 五、命令行使用 5.1、topic 命令 1、关于topic,这里用window 来示例 bin\windows\kafka-topics.bat2、创建 first topic,五个分区1个副本 bin\windows\kafka-topics.bat --bootstrap-server localhost:9092 --create --partitions 5 --replication-factor 1 --topic first3、查看当前服务器中的所有 topic bin\windows\kafka-topics.bat --list --bootstrap-server localhost:90924、查看 first 主题的详情 bin\windows\kafka-topics.bat --bootstrap-server localhost:9092 --describe --topic first5、修改分区数**注意分区数只能增加不能减少** bin\windows\kafka-topics.bat --bootstrap-server localhost:9092 --alter --topic first --partitions 66、删除 topic,该操作在winodw会出现文件授权问题日志可以在kafka的启动命令窗口中查看只需要修改文件权限即可如果出现这个问题我们需要清空之前配置的 data和kafka-logs 这两个文件中的内容再次重新启动即可。 bin\windows\kafka-topics.bat --bootstrap-server localhost:9092 --delete --topic first5.2、生产者命令行操作 1、关于查看操作生产者命令参数这里用window 来示例 .\bin\windows\kafka-console-producer.bat2、发送消息这里发送了2次的数据第一次是hello第二次是world .\bin\windows\kafka-console-producer.bat --bootstrap-server localhost:9092 --topic first5.3、消费者命令行操作 1、关于查看操作生产者命令参数这里用window 来示例 .\bin\windows\kafka-console-consumer.bat2、接受消息因为前面我们在发送消息的时候消费者没有启动所以第一次发的数据这里是收不到的并没有存储到topic中 .\bin\windows\kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic first3、把主题中所有的数据都读取出来包括历史数据可以看到我们获取到了从消费者没有上线之前到上线之后的所有数据一共6条。 .\bin\windows\kafka-console-consumer.bat --bootstrap-server localhost:9092 --from-beginning --topic first5.4、脚本说明 项目Valueconnect-standalone.sh用于启动单节点的Standalone模式的Kafka Connect组件。connect-distributed.sh用于启动多节点的Distributed模式的Kafka Connect组件。kafka-acls.sh脚本用于设置Kafka权限比如设置哪些用户可以访问Kafka的哪些TOPIC的权限。kafka-delegation-tokens.sh用于管理Delegation Token。基于Delegation Token的认证是一种轻量级的认证机制是对SASL认证机制的补充。kafka-topics.sh用于管理所有TOPIC。kafka-console-producer.sh用于生产消息。kafka-console-consumer.sh用于消费消息。kafka-producer-perf-test.sh用于生产者性能测试。kafka-consumer-perf-test.sh用于消费者性能测试。kafka-delete-records.sh用于删除Kafka的分区消息由于Kafka有自己的自动消息删除策略使用率不高。kafka-dump-log.sh用于查看Kafka消息文件的内容包括消息的各种元数据信息、消息体数据。kafka-log-dirs.sh用于查询各个Broker上的各个日志路径的磁盘占用情况。kafka-mirror-maker.sh用于在Kafka集群间实现数据镜像。kafka-preferred-replica-election.sh用于执行Preferred Leader选举可以为指定的主题执行更换Leader的操作。kafka-reassign-partitions.sh用于执行分区副本迁移以及副本文件路径迁移。kafka-run-class.sh用于执行任何带main方法的Kafka类。kafka-server-start.sh用于启动Broker进程。kafka-server-stop.sh用于停止Broker进程。kafka-streams-application-reset.sh用于给Kafka Streams应用程序重设位移以便重新消费数据。kafka-verifiable-producer.sh用于测试验证生产者的功能。kafka-verifiable-consumer.sh用于测试验证消费者功能。trogdor.sh是Kafka的测试框架用于执行各种基准测试和负载测试。kafka-broker-api-versions.sh脚本主要用于验证不同Kafka版本之间服务器和客户端的适配性 5.5、关闭kafka 1、一定要先关闭 kafka再关闭zookeeper否则容易出现数据错乱 如果出现数据错错乱最简单的方法就是清空data和kafka-logs 这两个文件下的内容重新启动即可 2、关闭 .\bin\windows\kafka-server-stop.bat .\bin\windows\zookeeper-server-stop.bat5.6、选择分区数及kafka性能测试 1、主要工具是 kafka-producer-perf-test.bat 和 kafka-consumer-perf-test.bat 两个脚本可以参考 kafka如何选择分区数及kafka性能测试 六、java 使用 6.1、使用原生客户端 1、依赖 dependencygroupIdorg.apache.kafka/groupIdartifactIdkafka-clients/artifactIdversion3.4.0/version/dependency2、发送和消费消息具体代码如下 public class KafkaConfig {public static void main(String[] args) {// 声明主题String topic first;// 创建消费者Properties consumerConfig new Properties();consumerConfig.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.189.128:9092,92.168.189.128:9093,192.168.189.128:9094);consumerConfig.put(ConsumerConfig.GROUP_ID_CONFIG,boot-kafka);consumerConfig.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,org.apache.kafka.common.serialization.StringDeserializer);consumerConfig.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,org.apache.kafka.common.serialization.StringDeserializer);KafkaConsumer kafkaConsumer new KafkaConsumer(consumerConfig);// 订阅主题并循环拉取消息kafkaConsumer.subscribe(Arrays.asList(topic));new Thread(new Runnable() {Overridepublic void run() {while (true){ConsumerRecordsString, String records kafkaConsumer.poll(Duration.ofMillis(10000));for(ConsumerRecordString, String record:records){System.out.println(record.value());}}}}).start();// 创建生产者Properties producerConfig new Properties();producerConfig.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.189.128:9092,92.168.189.128:9093,192.168.189.128:9094);producerConfig.put(ProducerConfig.CLIENT_ID_CONFIG,boot-kafka-client);producerConfig.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer);producerConfig.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer);KafkaProducer producer new KafkaProducer(producerConfig);// 给主题发送消息producer.send(new ProducerRecord(topic, helloSystem.currentTimeMillis()));} }6.2、使用springBoot 1、依赖 !-- 不使用kafka的原始客户端使用spring集成的这样比较方便 --dependencygroupIdorg.springframework.kafka/groupIdartifactIdspring-kafka/artifactId!-- 可以不用指定springBoot 会帮我们选择如果有特殊需求可以更改 --!-- version3.0.2/version--/dependency2、配置文件 server:port: 7280servlet:context-path: /thermal-emqx2kafkashutdown: gracefulspring:application:name: thermal-api-demonstration-tdenginelifecycle:timeout-per-shutdown-phase: 30smvc:pathmatch:matching-strategy: ant_path_matcher # 不然spring boot 2.6以后的版本 和 swagger 会出现 问题可以参考 https://blog.csdn.net/qq_41027259/article/details/125747298kafka:bootstrap-servers: 127.0.0.1:9092 # 192.168.189.128:9092,92.168.189.128:9093,192.168.189.128:9094 连接的 Kafka Broker 主机名称和端口号#properties.key-serializer: # 用于配置客户端的附加属性对于生产者和消费者都是通用的。 org.apache.kafka.common.serialization.StringSerializerproducer: # 生产者retries: 3 # 重试次数#acks: 1 # 应答级别:多少个分区副本备份完成时向生产者发送ack确认(可选0、1、all/-1)#batch-size: 16384 # 一次最多发送数据量#buffer-memory: 33554432 # 生产端缓冲区大小key-serializer: org.apache.kafka.common.serialization.StringSerializervalue-serializer: org.apache.kafka.common.serialization.StringSerializerconsumer: # 消费者group-id: test-consumer-group #默认的消费组ID在Kafka的/config/consumer.properties中查看和修改#enable-auto-commit: true # 是否自动提交offset#auto-commit-interval: 100 # 提交offset延时(接收到消息后多久提交offset)#auto-offset-reset: latest #earliestlatestkey-deserializer: org.apache.kafka.common.serialization.StringDeserializervalue-deserializer: org.apache.kafka.common.serialization.StringDeserializer3、发送消息 package cn.jt.thermalemqx2kafka.kafka.controller;import com.alibaba.fastjson.JSON; import lombok.extern.slf4j.Slf4j; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.kafka.core.KafkaTemplate; import org.springframework.web.bind.annotation.GetMapping; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RestController;import java.util.HashMap; import java.util.Map;/*** author GXM* version 1.0.0* Description TODO* createTime 2023年08月17日*/ Slf4j RestController RequestMapping(/test) public class TestController {Autowiredprivate KafkaTemplateString, String kafkaTemplate;GetMapping(/mock)public String sendKafkaMessage() {MapString, Object data new HashMap(2);data.put(id, 1);data.put(name, gkj);kafkaTemplate.send(first, JSON.toJSONString(data));return ok;} } 4、接受消息 package cn.jt.thermalemqx2kafka.kafka.config;import lombok.extern.slf4j.Slf4j; import org.springframework.stereotype.Component;/*** author GXM* version 1.0.0* Description TODO* createTime 2023年08月17日*/ Slf4j Component public class KafkaListener {org.springframework.kafka.annotation.KafkaListener(topics first)private void handler(String content) {log.info(consumer received: {} , content);} }
http://www.w-s-a.com/news/507865/

相关文章:

  • 搬瓦工的主机可以用来做网站吗分类信息网站开发需求方案
  • 上海高端网站开发站霸网络国际网站建设的目的
  • 程序员招聘求职的网站做网站加入广告联盟
  • 网站建设的技术方案模板易做文学网站的logo
  • 建设国家标准官方网站响应式网站切图
  • 网站链接数怎么做wordpress安装网址
  • 沈阳建网站 哪家好如何做旅游网站推销
  • 继续网站建设南通网站建设方法
  • 淮南公司网站建设如果做京东优惠卷的网站
  • 二手房网站平台怎么做项目工程监理公司网站建设方案
  • 秦皇岛做网站公司小说推广平台有哪些
  • php网站做分享到朋友圈天元建设集团有限公司信用代码
  • 邱县做网站在线免费图片编辑器
  • 网站备份网站做网站如何把支付宝微信吧
  • 做网站的怎么获取客户信息晋城建设局网站
  • 新开传奇网站发布网单职业wordpress建站网页无法运作
  • 海南省住房和城乡建设厅官方网站网站开发有哪些语言
  • 网站开发排期表免费网站建设策划
  • 飞沐网站设计江苏建设人才网证书查询
  • 网站优化的意义怎么帮商家推广赚钱
  • 安顺公司做网站福州建设发展集团有限公司网站
  • 普陀企业网站建设做散客机票的网站如何推广
  • 河北网站建设与制作建设宁波市分行的互联网网站
  • python做网站是不是特别慢百度推广基木鱼
  • 卖网站链接东营住房和城乡建设信息网
  • 网站后台如何上传ico图标单位建设网站需要的材料
  • 如何建淘客网站郑州做网站最好的公司
  • 连锁酒店网站方案o2o网站建设方案
  • 功能型网站响应式网站原理
  • 聊城建设网站骨干校 建设网站