当前位置: 首页 > news >正文

网站列表页内容惠州建筑信息平台

网站列表页内容,惠州建筑信息平台,营销型网站sem投放策略,网站开发与维护视频教程目录 一、LVS集群的介绍 1、LVS 相关术语#xff1a; 2、lvs四层负载均衡工作原理 3、相关名词概念 4、lvs集群的类型 二、lvs的nat模式 1、介绍#xff1a; 2、数据逻辑#xff1a; 3、nat实验部署 环境搭建#xff1a; 1、lvs中要去打开内核路由功能#xff0c…目录 一、LVS集群的介绍 1、LVS 相关术语 2、lvs四层负载均衡工作原理 3、相关名词概念 4、lvs集群的类型 二、lvs的nat模式 1、介绍 2、数据逻辑 3、nat实验部署  环境搭建  1、lvs中要去打开内核路由功能实现网络互联。 2、在web1,web2上安装配置httpd服务 3、在lvs上面配置ipvsadm 4、用nat ip 172.25.254.100 进行测试 三、lvs的dr模式 1、详细介绍 2、dr的工作原理 3、dr模式部署  环境准备: 1、网络配置 2、下载需要的服务并启动 3、设置VIP并解决vip响应问题 3、在lvs上配置ipvsadm策略负载均衡---直连路由 测试 四、防火墙标签解决轮询错误 1、出现的错误 1、web1,web2安装mod_ssl,配置https服务 2、添加ipvsadm的443端口策略  3、测试查看就出现了问题我们的轮询就没有起到作用。 2、使用防火墙标记来解决 添加一条防火墙标记规则 最后在修改ipvsadm策略使用该标记策略 测试然后我们现在就解决了轮询的问题了。 五、lvs的调度算法  lvs调度算法类型 1、lvs静态调度算法 2、lvs动态调度算法 一、LVS集群的介绍 集群同一个业务系统部署在多台服务器上集群中每一台服务器实现的功能没有差别数据 和代码都是一样的 。 Cluster: 集群是为了解决某个特定问题将多台计算机组合起来形成的单个系统 Cluster常见的三种类型 LBLoadBalancing负载均衡由多个主机组成每个主机只承担一部分访问 HAHigh Availiablity高可用SPOFsingle Point Of failure MTBF:Mean Time Between Failure 平均无故障时间正常时间 MTTR:Mean Time To Restoration repair平均恢复前时间故障时间 AMTBF/MTBFMTTR (0,1)99%, 99.5%, 99.9%, 99.99%, 99.999% SLAService level agreement服务等级协议是在一定开销下为保障服务的性能和可用性服 务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服务质量的主要因素。在 常规的领域中总是设定所谓的三个9四个9来进行表示当没有达到这种水平的时候就会有一 些列的惩罚措施而运维最主要的目标就是达成这种服务水平。 停机时间又分为两种一种是计划内停机时间一种是计划外停机时间而运维则主要关注计划外 停机时间 HPCHigh-performance computing高性能计算国家战略资源 1、LVS 相关术语 LVS:Linux Virtual Server负载调度器内核集成。 VS: Virtual Server负责调度 RS:RealServer负责真正提供服务 2、lvs四层负载均衡工作原理 VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS根据调度算法来挑选RS。 LVSLinux Virtual Server主要通过负载均衡技术将来自客户端的请求转发给后端服务器从而提供高性能、高可用的服务器集群服务。 LVS是Linux操作系统中一个优秀的负载均衡项目它利用IP负载均衡技术有效地将到达的请求分发到不同的服务器上以实现高性能和高可用性。LVS的核心组件包括负载调度器Load Balancer、服务器池Server Pool和共享存储Shared Storage。请求首先到达负载调度器然后根据预设的规则和算法转发到服务器池中的某一台服务器进行处理。 3、相关名词概念 VSVirtual Server RSReal Server CIPClient IP VIP: Virtual serve IP VS外网的IP DIP: Director IP VS内网的IP RIP: Real server IP 访问流程 CIP -- VIP DIP -- RIP 4、lvs集群的类型 lvs-nat 修改请求报文的目标IP,多目标IP的DNAT lvs-dr 操纵封装新的MAC地址 lvs-tun 在原请求IP报文之外新加一个IP首部 lvs-fullnat 修改请求报文的源和目标IP 下面我们来介绍一下lvs的nat模式。 二、lvs的nat模式 1、介绍 本质是多目标IP的DNAT通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP和 PORT实现转发RIP和DIP应在同一个IP网络且应使用私网地址;RS的网关要指向DIP 请求报文和响应报文都必须经由Director转发Director易于成为系统瓶颈 支持端口映射可修改请求报文的目标PORT VS必须是Linux系统RS可以是任意OS系 2、工作原理 1.客户端发送访问请求请求数据包中含有请求来源cip访问目标地址VIP访问目标端口9000port2.VS服务器接收到访问请求做DNAT把请求数据包中的目的地由VIP换成RS的RIP和相应端口 3.RS1相应请求发送响应数据包包中的相应保温为数据来源RIP1响应目标CIP相应端口 9000port 4.VS服务器接收到响应数据包改变包中的数据来源RIP1--VIP,响应目标端口9000--80 5.VS服务器把修改过报文的响应数据包回传给客户端 6.lvs的NAT模式接收和返回客户端数据包时都要经过lvs的调度机所以lvs的调度机容易阻塞 客户请求到达vip后进入PREROUTING,在没有ipvs的时候因该进入本机INPUT,当IPVS存在后访问请求在通过PREROUTING后被ipvs结果并作nat转发 因为 ipvs 的作用点是在 PREROUTING 和 INPUT 链之间所以如果在 prerouting 中设定规则会干扰 ipvs的工作。所以在做 lvs 时要把 iptables 的火墙策略全清理掉。 3、nat实验部署  拓扑图 环境要求 准备3台Linux虚拟机 一台作lvs调度器进行负载均衡策略其中要有2个网卡一个为nat模式一个为仅主机模式。 其他两台都为仅主机模式提供httpd服务最终要实现的时在lvs上实现通过172.25.254.100进行nat模式实现负载均衡。 Web服务器网关指向192.168.0.100 后端web服务器不需要连接外网 环境搭建  主机名 ipvip角色lvs192.168.0.100172.25.254.100 调度器 VS web1192.168.0.10null 真实服务器 RS web2192.168.0.20null 真实服务器 RS node4172.25.254.130 测试机 注意在进行lvs负载均衡部署时环境一定要成功没问题。 1、lvs中要去打开内核路由功能实现网络互联。 [rootlvs ~]#vim /etc/sysctl.conf #添加 net.ipv4.ip_forward 1 #查看 [rootlvs ~]#sysctl -p net.ipv4.ip_forward 1 2、在web1,web2上安装配置httpd服务 #web1上面 [rootweb1 ~]#dnf install httpd -y [rootweb1 ~]# echo web1 10 /var/www/html/index.html [rootweb1 ~]# systemctl enable --now httpd#web2上面 [rootweb2 ~]#dnf install httpd -y [rootweb2 ~]# echo web2 20 /var/www/html/index.html [rootweb2 ~]# systemctl enable --now httpd 3、在lvs上面配置ipvsadm #下载服务 [rootlvs ~]#yum install ipvsadm -y #-s 调度算法 rr 轮询 -t 使用tcp协议 添加策略 [rootlvs ~]# ipvsadm -A -t 172.25.254.100:80 -s rr [rootlvs ~]# ipvsadm -Ln [rootlvs ~]# ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.10:80 -m [rootlvs ~]# ipvsadm -a -t 172.25.254.100:80 -r 192.168.0.20:80 -m #查看策略 [rootlvs ~]# ipvsadm -Ln IP Virtual Server version 1.2.1 (size4096) Prot LocalAddress:Port Scheduler Flags- RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 172.25.254.100:80 rr- 192.168.0.10:80 Masq 1 0 0 - 192.168.0.20:80 Masq 1 0 0 #将其保存到配置文件中使其可以当作服务启动 [rootlvs ~]# ipvsadm-save /etc/sysconfig/ipvsadm [rootlvs ~]# systemctl enable --now ipvsadm.service ipvsadm 的详细用法将在后面介绍哦现在先使用。 4、用nat ip 172.25.254.100 进行测试 以上就成功啦实现简单的负载均衡上面web服务写成不一样是为了实验结果明显在企业中其内容一般都是一样的这样就可以实现我们需要负载均衡的效果 。 但是这样就会导致中间lvs的压力过大为了解决这个问题就出现了dr模式下面我们来介绍一下dr模式。 三、lvs的dr模式 1、详细介绍 DRDirect Routing直接路由LVS默认模式,应用最广泛,通过为请求报文重新封装一个MAC首部进行转发源MAC是DIP所在的接口的MAC目标MAC是某挑选出的RS的RIP所在接口的MAC地址源 IP/PORT以及目标IP/PORT均保持不变。 在LVS-DR模式下数据包的流向是客户端向目标VIP发送请求负载均衡器接收后选择后端真实服务器并改写MAC地址将请求通过局域网发送给该服务器。这种模式中 Virtual Server 与Real Server需要在同一个网络中并且都配置有VIP地址。由于所有的请求报文经由 Virtual Server 调度而响应报文直接由Real Server发出因此可以减轻 Virtual Server 的压力提高系统的可扩展性和效率。 综上所述就是在DR模式中RS接收到访问请求后不需要回传给VS调度器直接把回传数据发送给client所以RS和vs上都要有vip。 2、dr的工作原理 工作原理 ① 客户端将请求发往负载均衡器请求报文源地址是CIP目标地址为VIP ② 负载均衡器收到报文后将客户端请求报文的源 MAC 地址改为自己 DIP 的 MAC 地址目标 MAC 改为了 RIP 的 MAC 地址并将此包发送给 RS ③ RS 处理完请求报文后将响应报文通过 lo 接口送给 路由器网关直接发送给客户端。 数据流向 客户端发送数据帧给vs调度主机帧中内容为客户端IP客户端的MACVIPVIP的MAC VS调度主机接收到数据帧后把帧中的VIP的MAC该为RS1的MAC此时帧中的数据为客户端 IP客户端的MACVIPRS1的MAC RS1得到2中的数据包做出响应回传数据包数据包中的内容为VIPRS1的MAC客户端IP客户端IP的MAC。 特点 1.Director 和各 RS 都配置有 VIP 2. 确保前端路由器将目标 IP 为 VIP 的请求报文发往 Director 3. 在前端网关做静态绑定 VIP 和 Director 的 MAC 地址 4.RS的RIP可以使用私网地址也可以是公网地址RIP与DIP在同一IP网络 5.RIP 的网关不能指向 DIP 以确保响应报文不会经由 Director 6.RS 和 Director 要在同一个物理网络 7. 请求报文要经由 Director 但响应报文不经由 Director 而由 RS 直接发往 Client 8. 不支持端口映射端口不能修败 9.RS 可使用大多数 OS 系统。 3、dr模式部署  环境准备: 本次实验需要准备5台Linux虚拟机分别作为client,router(路由器服务)lvs调度器web1web2.。其具体网卡IP要求如下图表所示除了了具体每个虚拟机自己网卡的IP其lvs,web1,web2要共同有一个虚拟IPVIP。还有就是网关都要指向路由器。 那么现在在每台虚拟机上查看网络配置 1、网络配置 client查看网卡IP和路由 [rootclient system-connections]# cat ens160.nmconnection [connection] idens160 typeethernet interface-nameens160[ipv4] #IP和网关 address1172.25.254.200/24,172.25.254.100 methodmanual dns114.114.114.114; #查看路由 [rootclient ~]# route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 0.0.0.0 172.25.254.100 0.0.0.0 UG 100 0 0 ens160 172.25.254.0 0.0.0.0 255.255.255.0 U 100 0 0 ens160 router:查看网卡IP并配置路由内核功能net.ipv4.ip_forward 1 [rootrouter system-connections]# cat ens160.nmconnection [connection] idens160 typeethernet interface-nameens160[ipv4] address1172.25.254.100/24,172.25.254.2 methodmanual dns114.114.114.114; [rootrouter system-connections]# cat ens224.nmconnection [connection] idens224 typeethernet interface-nameens224[ipv4] address1192.168.0.100/24 methodmanual#路由内核功能添加net.ipv4.ip_forward 1 [rootrouter ~]# cat /etc/sysctl.conf # sysctl settings are defined through files in # /usr/lib/sysctl.d/, /run/sysctl.d/, and /etc/sysctl.d/. # # Vendors settings live in /usr/lib/sysctl.d/. # To override a whole file, create a new file with the same in # /etc/sysctl.d/ and put new settings there. To override # only specific settings, add a file with a lexically later # name in /etc/sysctl.d/ and put new settings there. # # For more information, see sysctl.conf(5) and sysctl.d(5). net.ipv4.ip_forward 1lvs:查看网卡IP和路由 [rootlvs system-connections]# cat ens224.nmconnection [connection] idens224 typeethernet interface-nameens224[ipv4] address1192.168.0.50/24,192.168.0.100 methodmanual dns114.114.114.114;[rootlvs ~]# route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 0.0.0.0 192.168.0.100 0.0.0.0 UG 100 0 0 ens224 192.168.0.0 0.0.0.0 255.255.255.0 U 100 0 0 ens224 web1:查看网卡IP和路由 [rootweb1 system-connections]# cat ens224.nmconnection [connection] idens224 typeethernet interface-nameens224[ipv4] address1192.168.0.10/24,192.168.0.100 methodmanual dns114.114.114.114;[rootweb1 ~]# route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 0.0.0.0 192.168.0.100 0.0.0.0 UG 100 0 0 ens224 192.168.0.0 0.0.0.0 255.255.255.0 U 100 0 0 ens224 web2:查看网卡IP和路由 [rootweb2 system-connections]# cat ens224.nmconnection [connection] idens224 typeethernet interface-nameens224[ipv4] address1192.168.0.20/24,192.168.0.100 methodmanual dns114.114.114.114;[rootweb1 ~]# route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface 0.0.0.0 192.168.0.100 0.0.0.0 UG 100 0 0 ens224 192.168.0.0 0.0.0.0 255.255.255.0 U 100 0 0 ens224 2、下载需要的服务并启动 (1)在lvs上面下载 ipvsadm #下载服务 [rootlvs ~]#yum install ipvsadm -y [rootlvs ~]# systemctl enable --now ipvsadm.service (2)在web1,web2上安装配置httpd服务 #web1上面 [rootweb1 ~]#dnf install httpd -y [rootweb1 ~]# echo web1 10 /var/www/html/index.html [rootweb1 ~]# systemctl enable --now httpd#web2上面 [rootweb2 ~]#dnf install httpd -y [rootweb2 ~]# echo web2 20 /var/www/html/index.html [rootweb2 ~]# systemctl enable --now httpd 3、设置VIP并解决vip响应问题 DR模型中各主机上均需要配置VIP解决地址冲突的方式有三种 (1)在前端网关做静态绑定 (2)在各RS使用arptables (3)在各RS修改内核参数来限制arp响应和通告的级别 本次实验是通过限制arp来实现 限制响应级别:arp_ignore 0:默认值表示可使用本地任意接口上配置的任意地址进行响应 1:仅在请求的目标IP配置在本地主机的接收到请求报文的接口上时才给予响应 限制通告级别:arp_announce 0:默认值把本机所有接口的所有信息向每个接口的网络进行通告 1:尽量避免将接口信息向非直接连接网络进行通告 2:必须避免将接口信息向非本网络进行通告 先在lvs,web1,web2上设置环回网卡的虚拟IP(vip) [rootlvs ~]# ip a a 192.168.0.200/32 dev lo [rootweb1 ~]# ip a a 192.168.0.200/32 dev lo [rootweb2 ~]# ip a a 192.168.0.200/32 dev lo[rootlvs ~]# ip ad 1: lo: LOOPBACK,UP,LOWER_UP mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet 192.168.0.200/32 scope global lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever配置arp限制来解决VIP响应的问题 在web1和web2中解决响应问题 [rootweb1 ~]# echo 1 /proc/sys/net/ipv4/conf/all/arp_ignore [rootweb1 ~]# echo 1 /proc/sys/net/ipv4/conf/lo/arp_ignore [rootweb1 ~]# echo 2 /proc/sys/net/ipv4/conf/lo/arp_announce [rootweb1 ~]# echo 2 /proc/sys/net/ipv4/conf/all/arp_announce [rootweb2 ~]# echo 1 /proc/sys/net/ipv4/conf/all/arp_ignore [rootweb2 ~]# echo 1 /proc/sys/net/ipv4/conf/lo/arp_ignore [rootweb2 ~]# echo 2 /proc/sys/net/ipv4/conf/lo/arp_announce [rootweb2 ~]# echo 2 /proc/sys/net/ipv4/conf/all/arp_announce 3、在lvs上配置ipvsadm策略负载均衡---直连路由 在lvs中配置策略 [rootlvs ~]# ipvsadm -A -t 192.168.0.200:80 -s rr [rootlvs ~]# ipvsadm -a -t 192.168.0.200:80 -r 192.168.0.10:80 -g -w 1 [rootlvs ~]# ipvsadm -a -t 192.168.0.200:80 -r 192.168.0.20:80 -g -w 1 [rootlvs ~]# ipvsadm -Ln IP Virtual Server version 1.2.1 (size4096) Prot LocalAddress:Port Scheduler Flags - RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.0.200:80 rr - 192.168.0.10:80 Route 1 0 0 - 192.168.0.20:80 Route 1 0 0然后我们的dr的策略就做好了然后我们测试看看 测试 在client上进行测试,以下就是我们测试成功的页面但是不能具体看到其mac地址的变化具体我们可以是使用wireshark进行抓包分析。并且通过抓包可以看出全程源目IP并没有发生变化只有mac地址在不断变化mac地址都是通过路由器进行转发。 四、防火墙标签解决轮询错误 以http和https为例当我们在RS中同时开放80和443端口那么默认控制是分开轮询的这样我们就出现了一个轮询错乱的问题当我第一次访问80被轮询到RS1然后下次访问443仍然可能还被轮询到RS1上。这样我们设置的轮询就没有作用了为了解决这个问题我们可以使用防火墙标签来解决将80和443端口一起合并为一个服务来进行轮询。 下面我们来看一下在实验中其轮询出现的错误 1、出现的错误 实验环境就用上面lvs的dr模式的5个Linux虚拟机只需要在web1,web2上添加配置https,并在lvs上面添加443端口的策略。 1、web1,web2安装mod_ssl,配置https服务 #安装 [rootweb1 ~]# dnf install mod_ssl -y [rootweb2 ~]# dnf install mod_ssl -y#重启查看服务 [rootweb1 ~]# systemctl restart httpd [rootweb1 ~]# netstat -lntup | grep httpd tcp6 0 0 :::443 :::* LISTEN 3202/httpd tcp6 0 0 :::80 :::* LISTEN 3202/httpd #重启查看服务 [rootweb2 ~]# systemctl restart httpd [rootweb2 ~]# netstat -lntup | grep httpd tcp6 0 0 :::443 :::* LISTEN 3261/httpd tcp6 0 0 :::80 :::* LISTEN 3261/httpd2、添加ipvsadm的443端口策略  #添加443端口的策略80我们在上面已经写过了这里就可以直接使用 [rootlvs ~]# ipvsadm -A -t 192.168.0.200:443 -s rr [rootlvs ~]# ipvsadm -a -t 192.168.0.200:443 -r 192.168.0.10:443 -g -w 1 [rootlvs ~]# ipvsadm -a -t 192.168.0.200:443 -r 192.168.0.20:443 -g -w 1 [rootlvs ~]# ipvsadm -Ln IP Virtual Server version 1.2.1 (size4096) Prot LocalAddress:Port Scheduler Flags- RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.0.200:80 rr- 192.168.0.10:80 Route 1 0 0 - 192.168.0.20:80 Route 2 0 0 TCP 192.168.0.200:443 rr- 192.168.0.10:443 Route 1 0 0 - 192.168.0.20:443 Route 1 0 0 3、测试查看就出现了问题我们的轮询就没有起到作用。 #使用 -k访问https,可以忽略加密 [rootclient ~]# curl 192.168.0.200;curl -k https://192.168.0.200 web2 20 web2 20 [rootclient ~]# curl 192.168.0.200;curl -k https://192.168.0.200 web2 20 web2 202、使用防火墙标记来解决 主要是在lvs调度器上配置让80和443成为一个整体。 语法 iptables  -t  mangle  -A  PREROUTING  -d  $vip  -p  $proto  -m  multiport  --dports  $portl ,$port2 ,.. -i  MARK  --set-mark   NUMBER 我们可以先查看一下 mangle表的规则如下 [rootlvs ~]# iptables -t mangle -nL Chain PREROUTING (policy ACCEPT) target prot opt source destination Chain INPUT (policy ACCEPT) target prot opt source destination Chain FORWARD (policy ACCEPT) target prot opt source destination Chain OUTPUT (policy ACCEPT) target prot opt source destination Chain POSTROUTING (policy ACCEPT) target prot opt source destination 添加一条防火墙标记规则 #443和80一起,MARK target 可用于给特定的报文打标记,--set-mark value [rootlvs ~]# iptables -t mangle -A PREROUTING -d 192.168.0.200 -p tcp -m multiport --dports 80,443 -j MARK --set-mark 66 [rootlvs ~]# iptables -t mangle -nL Chain PREROUTING (policy ACCEPT) target prot opt source destination MARK tcp -- 0.0.0.0/0 192.168.0.200 multiport dports 80,443 MARK set 0x42最后在修改ipvsadm策略使用该标记策略 #清空之前的 [rootlvs ~]# ipvsadm -C [rootlvs ~]# ipvsadm -Ln IP Virtual Server version 1.2.1 (size4096) Prot LocalAddress:Port Scheduler Flags- RemoteAddress:Port Forward Weight ActiveConn InActConn#添加新的 [rootlvs ~]# ipvsadm -A -f 66 -s rr [rootlvs ~]# ipvsadm -a -f 66 -r 192.168.0.10 -g [rootlvs ~]# ipvsadm -a -f 66 -r 192.168.0.20 -g [rootlvs ~]# ipvsadm -Ln IP Virtual Server version 1.2.1 (size4096) Prot LocalAddress:Port Scheduler Flags- RemoteAddress:Port Forward Weight ActiveConn InActConn FWM 66 rr- 192.168.0.10:0 Route 1 0 0 - 192.168.0.20:0 Route 1 0 0 测试然后我们现在就解决了轮询的问题了。 下面我们来介绍一下lvs的一些调度算法 五、lvs的调度算法  lvs调度算法类型 ipvs scheduler 根据其调度时是否考虑各 RS 当前的负载状态被分为两种静态方法和动态方法 静态方法仅根据算法本身进行调度不考虑 RS 的负载情况 动态方法主要根据每 RS 当前的负载状态及调度算法进行调度 Overheadvalue 较小的 RS 将被调度 1、lvs静态调度算法 RRroundrobin 轮询 RS分别被调度当RS配置有差别时不推荐 WRRWeighted RR加权轮询根据RS的配置进行加权调度性能差的RS被调度的次数少 SHSource Hashing实现session sticky源IP地址hash将来自于同一个IP地址的请求始终发往第一次挑中的RS从而实现会话绑定 DHDestination Hashing目标地址哈希第一次轮询调度至RS后续将发往同一个目标地址的请求始终转发至第一次挑中的RS典型使用场景是正向代理缓存场景中的负载均衡如宽带运营商 2、lvs动态调度算法 主要根据RS当前的负载状态及调度算法进行调度Overheadvalue较小的RS会被调度 1、LCleast connections最少链接发    适用于长连接应用 Overhead 负载值 activeconns 活动链接数 x 256inactiveconns非活动链接数 2、WLCWeighted LC权重最少链接              默认调度方法 Overhead(activeconns x 256inactiveconns)/weight 3、SEDShortest Expection Delay,         初始连接高权重优先 Overhead(activeconns1inactiveconns) x 256/weight  但是当 node1 的权重为 1 node2 的权重为 10 经过运算前几次的调度都会被 node2 承接 4、NQNever Queue第一轮均匀分配后续SED 5、LBLCLocality-Based LC动态的DH算法使用场景根据负载状态实现正向代理 6、LBLCRLBLC with Replication带复制功能的LBLC解决LBLC负载不均衡问题从负载重的复制 到负载轻的RS
http://www.w-s-a.com/news/801427/

相关文章:

  • 25个优秀个人网站设计模板网站建设定位分析论文
  • 在线网站备案站长seo综合查询工具
  • 网站根 html网站建设行业数据
  • 网站公司做的网站有最字设计说明室内设计
  • 在线网站代码生成我想做个百度网站怎么做
  • 网站的建设费用分为长治市建设厅官方网站
  • 做网站都有哪些费用建设免费手机网站
  • 网站 组成代码做网站图片怎么插
  • 2020中国企业500强榜单南宁seo标准
  • 北美购物网站排名烟台专业的网站建站公司
  • 门户网站设计特点营销策划咨询机构
  • 天津做网站就到徽信xiala5中国营销型网站
  • 外汇网站建设制作深圳三站合一网站建设
  • 深圳坂田网站设计公司有哪些学校网站建设管理办法
  • 太原建设银行网站中山营销型网站设计
  • 广东省建设厅官方网站多少钱江苏省江建集团有限公司建设网站
  • 网站开发主流服装网站开发课程设计
  • 在iis里面创建网站wordpress响应式视频
  • 学设计哪个网站好网页设计音乐网站
  • 可以自己做斗图的网站上海模板建站多少钱
  • 山东川畅信息技术有限公司网站建设网站开发任务书
  • 网站排版设计欣赏搭建公司介绍网站
  • 网站弹窗是怎么做的长沙智优营家
  • 手机网站菜单设计模板菜单网站图片素材
  • 浙江网站推广爱企查企业查询入口
  • 公司网站平台vs2012网站开发课程设计
  • 哪些方法可以建设网站做网站失败
  • 龙岗网站建设技术wordpress左右两栏
  • 电子商务网站开发与应用的介绍怎么查询域名是否备案
  • 想做一个自己设计公司的网站怎么做的权威发布型舆情回应