当前位置: 首页 > news >正文

网站上线 串词php 数据录入网站

网站上线 串词,php 数据录入网站,flash网站在线diy源码,中国新闻最新消息简介 Kafka是一个高吞吐量、分布式的发布-订阅消息系统。Kafka核心模块使用Scala语言开发#xff0c;支持多语言#xff08;如Java、Python、Go等#xff09;客户端#xff0c;它可以水平扩展和具有高吞吐量特性而被广泛使用#xff0c;并与多类开源分布式处理系统进行集成…简介 Kafka是一个高吞吐量、分布式的发布-订阅消息系统。Kafka核心模块使用Scala语言开发支持多语言如Java、Python、Go等客户端它可以水平扩展和具有高吞吐量特性而被广泛使用并与多类开源分布式处理系统进行集成使用。   Kafka作为一款开源的、轻量级的、分布式、可分区和具备复制备份的、基于ZooKeeper协调管理的分布式流平台的功能强大的消息系统。与传统消息系统相比Kafka能够更好的处理活跃的流数据让数据在各个子系统中高性能、低延迟地不停流转。 自0.9.0.0版本开始Kafka社区添加了许多功能用于提高Kafka集群的安全性Kafka提供SSL或者SASL两种安全策略。SSL方式主要是通过CA令牌实现此方案主要介绍SASL方式。 SASL验证分类 验证方式kafka版本特点SASL/PLAIN0.10.0.0不能动态添加用户SASL/SCRAM0.10.2.0可以动态添加用户SASL/Kerberos0.9.0.0需要独立部署验证服务SASL/oauthbearer2.0.0 需要自己实现接口 实现token的创建和验证 需要额外的oauth服务 使用SSL加密在代理和客户端之间代理之间或代理和工具之间传输的数据 SCRAM认证配置的优点:   如果使用PLAIN认证有个问题就是不能动态新增用户每次添加用户后需要重启正在运行的Kafka集群才能生效。   因此在生产环境中这种认证方式不符合实际业务场景不利于后期扩展。然而使用SCRAM认证可以动态新增用户添加用户后可以不用重启正在运行的Kafka集群即可进行鉴权。所以生产环境推荐使用SCRAMPLAIN搭配的认证方案。   配置zookeeper集群启用SASL zookeeper官方地址Apache ZooKeeper 1. 配置zookeeper启用sasl认证 cat zoo.cfgtickTime2000 initLimit1 syncLimit5 dataDir/data/zookeeper/data dataLogDir/data/zookeeper/datalog clientPort2181 admin.serverPort8888 maxClientCnxns3000 autopurge.snapRetainCount3 autopurge.purgeInterval24 server.1192.168.100.110:2888:3888 server.2192.168.100.111:2888:3888 server.3192.168.100.112:2888:3888 4lw.commands.whitelistconf,stat,srvr,mntr.envi #zk SASL authProvider.1org.apache.zookeeper.server.auth.SASLAuthenticationProvider jaasLoginRenew3600000 requireClientAuthSchemesasl zookeeper.sasl.clienttrue 2. 配置zookeeper JAAS cat zk_jaas.confServer {org.apache.zookeeper.server.auth.DigestLoginModule requiredusernameadminpasswordadmin123user_kafkakafka123; };注意admin用户 是zk 集群之间使用的。 kafka用户 是 broker 与 zk 之间使用的。 3. 修改zkEnv.sh 将上一步添加的 jaas 配置文件添加到zookeeper的环境变量中zkEnv.sh文件最后添加一行vim zkEnv.shZOOBINDIR${ZOOBINDIR:-/usr/bin} ZOOKEEPER_PREFIX${ZOOBINDIR}/..# 添加如下 新增变量SERVER_JVMFLAGSexport SERVER_JVMFLAGS-Djava.security.auth.login.config../conf/zk_jaas.conf 4. 配置环境变量启动zk服务 vim /etc/profile# zk export PATH/home/zookeeper/bin:$PATHsource /etc/profile# 启动服务zkServer.sh start zkServer.sh status5. 安装zkui图形界面管理zk # 拉取代码git clone https://github.com/DeemOpen/zkui.git# 安装maven并配置阿里云源从这里下载https://maven.apache.org/wget https://dlcdn.apache.org/maven/maven-3/3.9.4/binaries/apache-maven-3.9.4-bin.tar.gztar -zxvf apache-maven-3.9.4-bin.tar.gzecho export PATH/home/apache-maven-3.9.4-bin:$PATH /etc/profilesource /etc/profilemvn -vvim settings.xml找到/mirrors节点添加即可mirroridalimaven/idnamealiyun maven/nameurlhttp://maven.aliyun.com/nexus/content/groups/public//urlmirrorOfcentral/mirrorOf/mirror -----------------------------------# 构建jar包cd zkui/ mvn clean install -DskipTestsmkdir /data/zkui cp zkui/target/zkui-2.0-SNAPSHOT-jar-with-dependencies.jar /data/zkui/ cp zkui/config.cfg /data/zkui/ cd /data/zkui nohup java -jar zkui-2.0-SNAPSHOT-jar-with-dependencies.jar tail -n 100 -f nohup.out -----------------------------------http://192.168.100.113:9090/login 账号:admin 密码:manager基本操作 通过UI界面操作尽量规避掉人为操作的多种不确定性因素导致生产故障浏览器访问下面的用户名和密码提示是config.cfg中loginMessage字段写死的生产中修改掉即可 配置kafka sasl动态认证 SASL/SCRAM认证是把凭证(credential)存储在Zookeeper使用kafka-configs.sh在Zookeeper中创建凭据。对于每个SCRAM机制必须添加具有机制名称的配置来创建凭证所以在启动Kafka broker之前需要创建代理间通信的凭据。   这里配置的 Kafka和生产者/消费者之间 采用SASL/PLAIN和SASL/SCRAM两种方式共同完成认证授权使用ACL方式。PLAIN方式的用户是在jaas文件中写死的不能动态的添加SCRAM支持动态的添加用户。 1. 创建用户 配置SASL/SCRAM认证的第一步是配置可以连接到kafka集群的用户。本案例创建了3个用户adminproducerconsumer。kafka_server_admin用户用于broker之间的认证通信producer用户用于生产者连接kafkaconsumer用户用于消费者连接kafka 。 kafka-configs.sh --zookeeper 192.168.100.110:2181 --alter --add-config SCRAM-SHA-256[iterations8192,passwordadmin123],SCRAM-SHA-512[passwordadmin123] --entity-type users --entity-name adminkafka-configs.sh --zookeeper 192.168.100.110:2181 --alter --add-config SCRAM-SHA-256[iterations8192,passwordadmin123],SCRAM-SHA-512[passwordadmin123] --entity-type users --entity-name producerkafka-configs.sh --zookeeper 192.168.100.110:2181 --alter --add-config SCRAM-SHA-256[iterations8192,passwordadmin123],SCRAM-SHA-512[passwordadmin123] --entity-type users --entity-name consumer Completed Updating config for entity: user-principal admin. #正常情况打印信息这串信息。PS用户 admin 这里配置admin用户用于实现broker间的通讯。 2. 查看创建的用户信息 kafka-configs 脚本是用来设置主题级别参数的。其实它的功能还有很多。比如在这个例子中我们使用它来创建 SASL/SCRAM 认证中的用户信息。可以使用下列命令来查看刚才创建的用户数据。 kafka-configs.sh --zookeeper 192.168.100.110:2181 --describe --entity-type users #可以单独指定某个用户 --entity-name producer如下 kafka-configs.sh --zookeeper 192.168.100.110:2181 --describe --entity-type users --entity-name producer 输出示例如下 Configs for user-principal producer are SCRAM-SHA-512saltczVldW1mNDRlcTgzdnJydWxrOXB0YThxbw,stored_keyHjrex55CEcLSA2b1n8bvL5CfjziLPHD8EoduoCkNrT0xcVDthoQSi4hvt7szU55pJP/LTbpQkZdV66nueVzKmg,server_keyOcXwU1KyxBU1tUdlu9ikpfwlyne121iD4amN7zKl8I84KeBZlrwz1IKB1ICFFiAP9XoRRj0QMgHbCfhsL/wA,iterations4096,SCRAM-SHA-256saltNDJzZmZ0MmhxMDI0N2ZrbXh6bTQwYnZzcA,stored_keyEIzpjfD4JzItzjeh16UvpQEGyYoZbesR0GRsQB58Als,server_key5LAvxe/KjCas7w4GMKlkT/il99peOozXY/HPZeSF14,iterations8192 这段命令包含了 writer 用户加密算法 SCRAM-SHA-256 以及 SCRAM-SHA-512 对应的盐值 (Salt)、ServerKey 和 StoreKey这些都是 SCRAM 机制的术语。 ZK客户端命令行查看zkCli.sh -server 192.168.100.110:2181ls /config/users 删除用户[producer]的SCRAM证书kafka-configs.sh --zookeeper 192.168.100.110:2181 --alter --delete-config SCRAM-SHA-256 --entity-type users --entity-name producer 3. 配置kafka jaas文件 配置了用户之后我们需要为 Broker 创建一个对应的 JAAS 文件。在实际场景中需要为每台单独的物理 Broker 机器都创建一份 JAAS 文件。 Kafka 的 jaas认证配置文件配置的是登录类超管密码和管理的帐号密码列表 vim kafka_server_jaas.confKafkaServer {org.apache.kafka.common.security.scram.ScramLoginModule requiredusername adminpasswordadmin123user_adminadmin123user_producerproducer123user_consumerconsumer123; }; KafkaClient {org.apache.kafka.common.security.scram.ScramLoginModule requiredusernameadminpasswordadmin123user_producerproducer123user_consumerconsumer123; }; Client {org.apache.kafka.common.security.scram.ScramLoginModule requiredusernamekafkapasswordkafka123; };-----------------------------------KafkaServer中usename配置的是kafka服务端使用的账号和密码后面的user_xxx事预设的普通帐号认证信息。中间部分配置的是PLAIN认证方式的账户和密码其中producer1是账户名producer123是密码。 Client配置了broker到Zookeeper的连接用户名密码这里要和前面zookeeper配置中的zk_jaas.conf.conf 中 user_kafka 的账号和密码相同。关于这个文件内容需要注意以下两点1不要忘记最后一行和倒数第二行结尾处的分号2JAAS 文件中不需要任何空格键。 4. kafka 配置文件启用SASL认证 Kafka 服务配置文件 server.propertis配置认证协议及认证实现类# -----------------节点1cat server.propertiesbroker.id0 listenersSASL_PLAINTEXT://:9092 advertised.listenersSASL_PLAINTEXT://192.168.100.110:9092 sasl.enabled.mechanismsSCRAM-SHA-256,PLAIN sasl.mechanism.inter.broker.protocolSCRAM-SHA-256 security.inter.broker.protocolSASL_PLAINTEXT allow.everyone.if.no.acl.foundfalse authorizer.class.namekafka.security.auth.SimpleAclAuthorizer super.usersUser:admin num.network.threads3 num.io.threads8 socket.send.buffer.bytes102400 socket.receive.buffer.bytes102400 socket.request.max.bytes104857600 log.dirs/data/kafka/datalogs num.partitions3 num.recovery.threads.per.data.dir1 offsets.topic.replication.factor2 transaction.state.log.replication.factor1 transaction.state.log.min.isr1 log.flush.interval.messages10000 log.flush.interval.ms1000 log.retention.hours168 log.retention.bytes1073741824 log.segment.bytes1073741824 log.retention.check.interval.ms300000 delete.topic.enabletrue auto.create.topics.enablefalse zookeeper.connect192.168.100.110:2181,192.168.100.111:2181,192.168.100.112:2181 zookeeper.connection.timeout.ms60000 group.initial.rebalance.delay.ms0# -------------------节点2cat server.propertiesbroker.id1 listenersSASL_PLAINTEXT://:9092 advertised.listenersSASL_PLAINTEXT://192.168.100.111:9092 sasl.enabled.mechanismsSCRAM-SHA-256,PLAIN sasl.mechanism.inter.broker.protocolSCRAM-SHA-256 security.inter.broker.protocolSASL_PLAINTEXT allow.everyone.if.no.acl.foundfalse authorizer.class.namekafka.security.auth.SimpleAclAuthorizer super.usersUser:admin num.network.threads3 num.io.threads8 socket.send.buffer.bytes102400 socket.receive.buffer.bytes102400 socket.request.max.bytes104857600 log.dirs/data/kafka/datalogs num.partitions3 num.recovery.threads.per.data.dir1 offsets.topic.replication.factor2 transaction.state.log.replication.factor1 transaction.state.log.min.isr1 log.flush.interval.messages10000 log.flush.interval.ms1000 log.retention.hours168 log.retention.bytes1073741824 log.segment.bytes1073741824 log.retention.check.interval.ms300000 delete.topic.enabletrue auto.create.topics.enablefalse zookeeper.connect192.168.100.110:2181,192.168.100.111:2181,192.168.100.112:2181 zookeeper.connection.timeout.ms60000 group.initial.rebalance.delay.ms0# -----------------------节点3 cat server.propertiesbroker.id2 listenersSASL_PLAINTEXT://:9092 advertised.listenersSASL_PLAINTEXT://192.168.100.112:9092 sasl.enabled.mechanismsSCRAM-SHA-256,PLAIN sasl.mechanism.inter.broker.protocolSCRAM-SHA-256 security.inter.broker.protocolSASL_PLAINTEXT allow.everyone.if.no.acl.foundfalse authorizer.class.namekafka.security.auth.SimpleAclAuthorizer super.usersUser:admin num.network.threads3 num.io.threads8 socket.send.buffer.bytes102400 socket.receive.buffer.bytes102400 socket.request.max.bytes104857600 log.dirs/data/kafka/datalogs num.partitions3 num.recovery.threads.per.data.dir1 offsets.topic.replication.factor3 transaction.state.log.replication.factor1 transaction.state.log.min.isr1 log.flush.interval.messages10000 log.flush.interval.ms1000 log.retention.hours168 log.retention.bytes1073741824 log.segment.bytes1073741824 log.retention.check.interval.ms300000 delete.topic.enabletrue auto.create.topics.enablefalse zookeeper.connect192.168.100.110:2181,192.168.100.111:2181,192.168.100.112:2181 zookeeper.connection.timeout.ms60000 group.initial.rebalance.delay.ms0 5. kafka 启动脚本添加认证文件路径的环境变量 Kafka 安全认证可以直接通过环境变量 -Djava.security.auth.login.config 设置修改 Kafka 启动脚本 kafka-start-server.sh 文件最后一行增加一个参数指向 jaas 配置文件的绝对路径 vim kafka-server-start.sh#exec $base_dir/kafka-run-class.sh $EXTRA_ARGS kafka.Kafka $ exec $base_dir/kafka-run-class.sh $EXTRA_ARGS -Djava.security.auth.login.config/path-to-kafka/config/kafka_server_jaas.conf kafka.Kafka $ 6.  kafka客户端配置 1) 配置consumer.properties和producer.properties,都要加入以下配置 ecurity.protocolSASL_PLAINTEXT sasl.mechanismSCRAM-SHA-512 2) 生产者配置 使用kafka-console-producer.sh脚本测试生产者由于开启安全认证和授权此时使用console-producer脚本来尝试发送消息那么消息会发送失败原因是没有指定合法的认证用户因此客户端需要做相应的配置需要创建一个名为producer.conf的配置文件给producer程序使用。 config目录下创建一个producer.conf的文件文件内容如下 cat producer.confsecurity.protocolSASL_PLAINTEXT sasl.mechanismSCRAM-SHA-256 sasl.jaas.configorg.apache.kafka.common.security.scram.Scra mLoginModule required usernameproducer passwordproducer123; 注意Topic设置写权限 3) 消费者配置 使用kafka-console-consumer.sh脚本测试生产者由于开启安全认证和授权因此客户端需要做相应的配置。需要为 consumer 用户创建consumer.conf给消费者程序同时设置对topic的读权限。 config目录下创建一个consumer.conf的文件文件内容如下 vim consumer.confsecurity.protocolSASL_PLAINTEXT sasl.mechanismSCRAM-SHA-256 sasl.jaas.configorg.apache.kafka.common.security.scram.Scra mLoginModule required usernameconsumer passwordconsumer123;  注意Topic设置读权限。 4) 在生产者和消费者启动脚本中引入JAAS文件 vim bin/kafka-console-producer.shif [ x$KAFKA_HEAP_OPTS x ]; thenexport KAFKA_HEAP_OPTS-Xmx512M fi# 添加这行 export KAFKA_OPTS-Djava.security.auth.login.config/path-to-kafka/config/kafka_server_jaas.confexec $(dirname $0)/kafka-run-class.sh kafka.tools.ConsoleProducer $# vim bin/kafka-console-consumer.shif [ x$KAFKA_HEAP_OPTS x ]; thenexport KAFKA_HEAP_OPTS-Xmx512M fi# 添加这行 export KAFKA_OPTS-Djava.security.auth.login.config/path-to-kafka/config/kafka_server_jaas.confexec $(dirname $0)/kafka-run-class.sh kafka.tools.ConsoleConsumer $ 启动kafka集群 nohup kafka-server-start.sh /path-to-kafka/config/server.properties # 检查启动日志tail -n 100 -f nohup.out 检查验证 zkCli.sh -server localhost:2181ls /brokers/ids 1. 生产者测试 1 创建一个测试主题test_topic kafka-topics.sh --zookeeper 192.168.100.112:2181 --create --replication-factor 3 --partitions 3 --topic test_topic 2查看创建的Topic kafka-topics.sh --list --zookeeper 192.168.100.112:2181 test_topickafka-topics.sh --describe --zookeeper 192.168.100.112:2181 --topic test_topic 注kafka开启认证后当生产者往Topic写数据需要为主题配置权限write即对生产者赋予写的权限。 这里使用producer用户认证授权通过ACL为producer 用户分配操作test_topic权限下面两个命令二选一即可 分配写的权限kafka-acls.sh --authorizer-properties zookeeper.connect192.168.100.112:2181 --add --allow- principal User:producer --operation Write --topic test_topic 启动生产者发送消息 特别注意在生产者生产消息之前如果不设置生产者用户的ACL权限会报错: kafka-console-producer.sh --broker-list 192.168.100.112:9092 --topic test_topic --producer.config /path-to-kafka/config/producer.confhello world end 2. 消费者测试 注kafka开启认证后当消费者拉取主题的消息时需要为Topic配置权限read即对生产者赋予写的权限。 这里使用consumer用户认证授权通过ACL为consumer用户分配操作test_topic权限同时需要对消费者组授权给groupId配权执行一下2个步骤: 1分配读的权限kafka-acls.sh --authorizer-properties zookeeper.connect192.168.100.112:2181 --add --allow-principal User:consumer--operation Read --topic test_topic2分配consumer的权限kafka-acls.sh --authorizer-properties zookeeper.connect192.168.100.112:2181 --add --allow- principal User:consumer--consumer --topic test_topic --group test_group 启动消费者消费消息 读取消息前如果对开启消费者用户读取topic权限会报错 #kafka-console-consumer.sh --bootstrap-server 192.xxx.xxx.112:9092,192.xxx.xxx.110:9092,192.xxx.xxx.111:9092 --topic test --group test-group --from-beginning --consumer.config /path-to-kafka/config/consumer.confkafka-console-consumer.sh --bootstrap-server 192.xxx.xxx.112:9092 --topic test_topic --group test-group --from-beginning --consumer.config /path-to-kafka/config/consumer.confhello world end 案例一则 1创建Topic kafka-topics.sh --zookeeper 192.168.100.110:2181 --create --partitions 2 --replication-factor 1 --topic test12生产者端配置 #添加写权限 kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer --authorizer-properties zookeeper.connect192.168.100.110:2181 --add --allow-principal User:producer --operation Write --topic test1#写入消息 kafka-console-producer.sh --broker-list 192.168.100.112:9092,192.168.100.111:9092,192.168.100.110:9092 --topic test1 --producer.config /path-to-kafka/config/producer.conf hello world3消费者端配置 #添加读权限 kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer --authorizer- properties zookeeper.connect192.168.100.110:2181 --add --allow-principal User:consumer --operation Read --topic test1#添加消费者组权限 kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer --authorizer- properties zookeeper.connect192.168.100.110:2181 --add --allow-principal User:consumer --operation Read --group test-group#拉取消息 kafka-console-consumer.sh --bootstrap-server 192.168.100.112:9092,192.168.100.110:9092,192.168.100.111:9092 --topic test1 --from-beginning --consumer.config /path-to-kafka/config/consumer.conf --group test-group hello World
http://www.w-s-a.com/news/141577/

相关文章:

  • 中展建设股份有限公司网站做网站备案是什么意思
  • 石家庄网站建设接单wordpress功能小工具
  • 有没有专门做网站的网站镜像上传到域名空间
  • 网站建设中 windows买域名自己做网站
  • 设计英语宁波seo做排名
  • 奉贤网站建设上海站霸深圳几个区
  • c#做网站自已建网站
  • 成都地区网站建设网站设计类型
  • 如何做网站结构优化北京响应式网站
  • 出售源码的网站威海住房建设局网站
  • 网站建设补充报价单网站建设 技术指标
  • 做网站费用分摊入什么科目做网络网站需要三证么
  • 房屋备案查询系统官网杭州排名优化软件
  • 网站地图html网络营销的流程和方法
  • 注册好网站以后怎么做wordpress 获取插件目录下
  • 南京做网站dmooo地方网站需要什么手续
  • 网站开发合同有效期omeka wordpress对比
  • 杭州设计网站的公司广州网站改版领军企业
  • 网站备案系统苏州网站设计网站开发公司
  • 怎么样做微网站著名企业vi设计
  • 三分钟做网站网页设计心得体会100字
  • 网站建设支付宝seo建站是什么
  • 常州做网站的 武进学雷锋_做美德少年网站
  • 怎样建网站赚钱贵州seo和网络推广
  • 创建网站的工具站内seo优化
  • 网站特效 站长查询网网站
  • 百度移动端网站网站建设设计思想
  • 青岛建设官方网站南宁制作企业网站
  • 校园网站建设管理工作制度大网站开发费用
  • 做logo赚钱的网站分类网站 模板