当前位置: 首页 > news >正文

电子商务网站建设抖音代运营退款成功案例

电子商务网站建设,抖音代运营退款成功案例,国际军事最新军事新闻,微商城系统开发kube-proxy是任何 Kubernetes 部署中的关键组件。它的作用是将流向服务#xff08;通过集群 IP 和节点端口#xff09;的流量负载均衡到正确的后端pod。kube-proxy可以运行在三种模式之一#xff0c;每种模式都使用不同的数据平面技术来实现#xff1a;userspace、iptables…kube-proxy是任何 Kubernetes 部署中的关键组件。它的作用是将流向服务通过集群 IP 和节点端口的流量负载均衡到正确的后端pod。kube-proxy可以运行在三种模式之一每种模式都使用不同的数据平面技术来实现userspace、iptables 或 IPVS。 userspace 模式非常旧且慢绝对不推荐但是应该如何权衡选择 iptables 还是 IPVS 模式呢在本文中我们将比较这两种模式在实际的微服务环境中衡量它们的性能并解释在何种情况下你可能会选择其中一种。 首先我们将简要介绍这两种模式的背景然后深入测试和结果…… 背景iptables 代理模式 iptables 是一个 Linux 内核功能旨在成为一个高效的防火墙具有足够的灵活性来处理各种常见的数据包操作和过滤需求。它允许将灵活的规则序列附加到内核数据包处理管道中的各个钩子上。在 iptables 模式下kube-proxy将规则附加到 “NAT pre-routing” 钩子上以实现其 NAT 和负载均衡功能。这种方式可行简单使用成熟的内核功能并且与其他使用 iptables 进行过滤的程序例如 Calico能够很好地兼容。 然而kube-proxy 编程 iptables 规则的方式意味着它名义上是一个 O(n) 风格的算法其中 n 大致与集群规模成正比更准确地说是与服务的数量和每个服务背后的后端 pod 数量成正比。 背景IPVS 代理模式 IPVS 是一个专门为负载均衡设计的 Linux 内核功能。在 IPVS 模式下kube-proxy通过编程 IPVS 负载均衡器来代替使用 iptables。它同样使用成熟的内核功能且 IPVS 专为负载均衡大量服务而设计它拥有优化的 API 和查找例程而不是一系列顺序规则。 结果是在 IPVS 模式下kube-proxy 的连接处理具有名义上的 O(1) 计算复杂度。换句话说在大多数情况下它的连接处理性能将保持恒定而不受集群规模的影响。 此外作为一个专用的负载均衡器IPVS 拥有多种不同的调度算法如轮询、最短期望延迟、最少连接数和各种哈希方法。相比之下iptables 中的 kube-proxy 使用的是随机的等成本选择算法。 IPVS 的一个潜在缺点是通过 IPVS 处理的数据包在 iptables 过滤钩子中的路径与正常情况下的数据包非常不同。如果计划将 IPVS 与其他使用 iptables 的程序一起使用则需要研究它们是否能够预期地协同工作。别担心Calico 早在很久以前就已经与 IPVS kube-proxy 兼容了 性能比较 好的从名义上来说kube-proxy在 iptables 模式下的连接处理是 O(n) 复杂度而在 IPVS 模式下是 O(1) 复杂度。但在实际微服务环境中这意味着什么呢 在大多数情况下涉及应用程序和微服务时kube-proxy性能有两个关键属性可能是您关心的 对往返响应时间的影响当一个微服务向另一个微服务发出 API 调用时平均而言第一个微服务发送请求并从第二个微服务接收响应需要多长时间对总 CPU 使用率的影响在运行微服务时包括用户空间和内核/系统使用在内的主机总 CPU 使用率是多少这包括了支持微服务所需的所有进程包括 kube-proxy。 为了说明这一点我们在一个专用节点上运行了一个“客户端”微服务 pod每秒生成 1000 个请求发送到由 10 个“服务器”微服务 pod 支持的 Kubernetes 服务。然后我们在 iptables 和 IPVS 模式下在客户端节点上测量了性能使用了各种数量的 Kubernetes 服务每个服务有 10 个 pod 支持最多达到 10,000 个服务即 100,000 个服务后端。对于微服务我们使用golang编写的简单测试工具作为我们的客户端微服务并使用标准NGINX作为服务器微服务的后端pods。 往返响应时间 在考虑往返响应时间时理解连接和请求之间的区别非常重要。通常大多数微服务将使用持久连接或“keepalive”连接这意味着每个连接会在多个请求之间重复使用而不是每个请求都需要新建一个连接。这一点很重要因为大多数新连接都需要在网络上进行三次握手这需要时间并且在 Linux 网络栈内进行更多处理这也需要一点时间和 CPU 资源。 为了说明这些差异我们在有和没有 keepalive 连接的情况下进行了测试。对于 keepalive 连接我们使用了 NGINX 的默认配置该配置会将每个连接保持活跃状态以供最多 100 个请求重复使用。请参见下图注意响应时间越低越好。 图表显示了两个关键点 在超过 1,000 个服务10,000 个后端 pod之前iptables 和 IPVS 之间的平均往返响应时间差异微不足道。平均往返响应时间的差异仅在不使用 keepalive 连接时才明显。也就是说当每个请求都使用新连接时差异才会显现。 对于 iptables 和 IPVS 模式kube-proxy 的响应时间开销与建立连接有关而不是与连接上的数据包或请求数量有关。这是因为 Linux 使用连接跟踪conntrack能够非常高效地将数据包匹配到现有连接。如果数据包在 conntrack 中被匹配到就不需要通过 kube-proxy 的 iptables 或 IPVS 规则来决定如何处理它。 值得注意的是在这个例子中“服务器”微服务使用的是 NGINX pod 提供一个小的静态响应体。许多微服务需要做的工作远不止这些这将导致相应更高的响应时间这意味着 kube-proxy 处理的时间差在这种图表中将占据更小的百分比。 最后有一个奇怪现象需要解释为什么在 10,000 个服务时非 keepalive 连接的响应时间在 IPVS 模式下变得更慢即使 IPVS 中新连接的处理复杂度是 O(1)要真正深入了解这一点我们需要进行更多的挖掘但其中一个因素是整个系统由于主机上增加的 CPU 使用而变得更慢。这也引出了下一个话题。 总CPU使用率 为了说明总 CPU 使用率下面的图表集中在不使用持久/keepalive 连接的最坏情况下此时 kube-proxy 连接处理的开销影响最大。 图表显示了两个关键点 在超过 1,000 个服务10,000 个后端 pod之前iptables 和 IPVS 之间的 CPU 使用率差异相对不显著。在 10,000 个服务100,000 个后端 pod时iptables 的 CPU 增加约为一个内核的 35%而 IPVS 增加约为一个内核的 8%。 有两个主要因素影响这种 CPU 使用模式。 第一个因素是默认情况下kube-proxy 每 30 秒重新编程一次内核中的所有服务。这解释了为什么即使 IPVS 的新连接处理名义上是 O(1) 复杂度IPVS 模式下的 CPU 也会略有增加。此外较早版本内核中重新编程 iptables 的 API 速度比现在慢得多。因此如果您在 iptables 模式下使用旧版内核CPU 增长将比图表中显示的更高。 第二个因素是 kube-proxy 使用 iptables 或 IPVS 处理新连接所需的时间。对于 iptables这在名义上是 O(n) 复杂度。在大量服务的情况下这对 CPU 使用有显著影响。例如在 10,000 个服务100,000 个后端 pod时iptables 每个新连接执行约 20,000 条规则。不过请记住在这个图表中我们展示的是每个请求都使用新连接的最坏情况。如果我们使用 NGINX 默认的每个连接 100 次 keepalive 请求那么 kube-proxy 的 iptables 规则执行频率将减少 100 倍从而大大降低使用 iptables 而非 IPVS 的 CPU 影响接近一个内核的 2%。 值得注意的是在这个例子中“客户端”微服务简单地丢弃了从“服务器”微服务接收到的每个响应。一个实际的微服务需要做的工作远不止这些这将增加图表中的基础 CPU 使用率但不会改变与服务数量相关的 CPU 增加的绝对值。 结论 在显著超过 1,000 个服务的规模下kube-proxy 的 IPVS 模式可以提供一些不错的性能提升。具体效果可能有所不同但一般来说对于使用持久“keepalive”连接风格的微服务且运行在现代内核上的情况下这些性能提升可能相对有限。对于不使用持久连接的微服务或者在较旧内核上运行时切换到 IPVS 模式可能会带来显著的收益。 除了性能方面的考虑外如果您需要比 kube-proxy 的 iptables 模式的随机负载均衡更复杂的负载均衡调度算法也应该考虑使用 IPVS 模式。 如果您不确定 IPVS 是否会对您有利那么坚持使用 kube-proxy 的 iptables 模式。它已经经过大量的生产环境验证尽管并不完美但可以说它作为默认选择是有原因的。 比较 kube-proxy 和 Calico 对 iptables 的使用 在本文中我们看到 kube-proxy 使用 iptables 在非常大规模时会导致性能影响。我有时会被问到为什么 Calico 没有遇到同样的挑战。答案是 Calico 对 iptables 的使用与 kube-proxy 有显著不同。kube-proxy 使用了一条非常长的规则链其长度大致与集群规模成正比而 Calico 使用的是非常短且优化的规则链并广泛使用 ipsets其查找时间复杂度为 O(1)不受其大小影响。 为了更好地理解这一点下面的图表显示了在集群中的节点平均托管 30 个 pod且集群中的每个 pod 平均适用 3 个网络策略的情况下每个连接由 kube-proxy 和 Calico 执行的 iptables 规则的平均数量。 即使在完全扩展的集群中运行拥有 10,000 个服务和 100,000 个后端 pod 时Calico 每个连接执行的 iptables 规则数量大致与 kube-proxy 在拥有 20 个服务和 200 个后端 pod 时执行的规则数量相同。换句话说Calico 对 iptables 的使用是可扩展的
http://www.w-s-a.com/news/431500/

相关文章:

  • 如何建设一个优秀的电商网站沐风seo
  • 从零开始学网站建设知乎安防网站下载
  • 打开网站弹出qq应用软件有哪些
  • 温州网站建设seo网站 如何做 中英文切换
  • 聊城做网站的公司资讯信阳 网站建设
  • 天津市工程建设交易网站查汗国珠海 网页设计
  • 龙果学院大型网站稳定性建设汾阳做网站
  • 湖北 个人网站备案时间域名查询备案查询
  • 网站推广方式校园网站怎么建
  • 长沙seo网站排名怎么在百度发帖
  • 织梦贷款网站模板做印章网站
  • 彭州做网站上海百度网络推广
  • 广州网站搭建快速提升网站排名荧光字网站
  • 15年做那些网站能致富做seo是什么意思
  • 各电商网站的特点网站制作2007
  • 用html做一号店网站怎么做公众号注册平台官网
  • 做盈利网站怎么备案vs做网站如何调试
  • 嘉兴做营销型网站廊坊做网站外包
  • 双语网站模板常州做网站的公司
  • 广州市车管所网站建设全国做网站公司前十名
  • 太原手手工网站建设公司视频直播服务
  • 雷达图 做图网站wordpress首页怎么美化
  • 四川做网站设计公司价格vip解析网站怎么做的
  • 网站建设流程域名申请做化工的 有那些网站
  • 软件开发设计流程图seo搜索引擎官网
  • 外国小孩和大人做网站东富龙科技股份有限公司
  • 上线倒计时单页网站模板做网站的资金来源
  • 泸州市建设厅网站中小企业网络需求分析
  • asp网站版权做网页价格
  • 长春网站建设路关键词优化公司哪家好