当前位置: 首页 > news >正文

推广 电子商务网站建设wordpress添加文件夹

推广 电子商务网站建设,wordpress添加文件夹,html免费素材,淘宝网站怎么做的好一、背景 近年来#xff0c;人工智能#xff08;AI#xff09;领域见证了模型规模的指数级增长#xff0c;特别是大型语言模型#xff08;LLM#xff09;的发展#xff0c;其参数量已从数十亿扩展至数万亿级别。这种规模的增长使得单一计算节点无法满足训练和推理的需求…一、背景 近年来人工智能AI领域见证了模型规模的指数级增长特别是大型语言模型LLM的发展其参数量已从数十亿扩展至数万亿级别。这种规模的增长使得单一计算节点无法满足训练和推理的需求分布式计算成为必然选择通常涉及跨越数百甚至数千个图形处理单元GPU或张量处理单元TPU节点进行协同工作。 在这种大规模分布式环境中节点间的通信效率成为决定整体性能的关键因素。无论是训练过程中频繁的梯度同步例如通过 All-Reduce 操作和参数交换还是大规模推理服务中对低延迟、高吞吐量的严苛要求都对底层网络基础设施提出了前所未有的挑战。传统的基于 TCP/IP 协议栈的网络通信方式由于其固有的协议处理开销、多次内存拷贝以及内核介入在高负载、低延迟要求的场景下往往会成为性能瓶颈导致计算资源闲置延长训练时间影响推理服务的响应速度。 1.1 RDMA高性能网络的解决方案 为了克服传统网络的局限性远程直接内存访问RDMA, Remote Direct Memory Access技术应运而生。RDMA 的核心优势在于允许一台计算机的内存直接访问另一台计算机的内存而无需涉及双方的操作系统内核或 CPU 介入数据传输路径。通过“零拷贝”Zero-Copy、“内核旁路”Kernel Bypass和“CPU 卸载”CPU Offload等机制RDMA 能够显著降低网络通信延迟至微秒级并提供接近物理链路速率的高带宽。这使得 RDMA 成为高性能计算HPC和大规模 AI/ML 等数据密集型应用场景下的理想网络技术。 1.2 Kubernetes可扩展工作负载的事实标准 与此同时Kubernetes 已成为容器化应用编排的事实标准为部署、扩展和管理大规模应用提供了强大的平台。随着 AI/ML 工作负载日益复杂化越来越多的组织选择在 Kubernetes 上运行 LLM 的训练和推理任务以利用其自动化、弹性和资源管理能力。 然而将 RDMA 这类需要特定硬件支持和底层配置的高性能技术融入 Kubernetes 的抽象模型中本身就是一个挑战。Kubernetes 的设计初衷是提供硬件无关的抽象而 RDMA 则要求对底层硬件如 RDMA 网卡有更直接的访问和控制。 二、RDMA 技术基础 理解 RDMA 如何在 Kubernetes 中加速大模型首先需要掌握其核心技术原理和优势。RDMA 通过一系列机制绕开了传统网络协议栈的瓶颈实现了高效的远程内存访问。 2.1 核心概念零拷贝、内核旁路与 CPU 卸载 RDMA 的高性能主要源于以下三个核心概念 零拷贝 (Zero-Copy): 在传统网络传输中数据需要在应用程序内存和操作系统内核的网络缓冲区之间进行多次复制。RDMA 允许网络适配器RNIC直接在不同机器的应用程序内存缓冲区之间传输数据完全消除了这些中间拷贝环节。相比之下TCP/IP 协议栈通常涉及多次数据拷贝。零拷贝显著降低了数据传输的延迟并减少了 CPU 和内存带宽的消耗。 内核旁路 (Kernel Bypass): RDMA 操作绕过了主机操作系统的网络协议栈。应用程序可以通过用户态驱动库如 libibverbs直接与 RNIC 交互提交数据传输请求而无需陷入内核态。这避免了用户态和内核态之间的上下文切换开销进一步降低了延迟。 CPU 卸载 (CPU Offload) / 远端 CPU 无关: RDMA 操作将数据传输的处理任务从 CPU 卸载到了 RNIC 硬件上。对于远端的接收方而言其 CPU 完全不参与传入的 RDMA 读写操作的处理过程。数据由 RNIC 直接写入目标内存地址不会中断远端 CPU 的正常执行也不会污染其缓存。本地 CPU 仅需发起传输请求无需处理数据的字节级移动。 这些机制共同作用使得 RDMA 能够将网络处理的重心从软件CPU 和内核转移到专门设计的硬件RNIC上这是其相比传统网络获得巨大性能优势的根本原因。 2.2 RDMA 工作原理硬件角色、内存注册与操作 实现 RDMA 需要硬件和软件的协同工作 RDMA 网络适配器 (RNIC) 角色: RDMA 依赖于支持该技术的专用网络接口卡RNIC。这些 RNIC 具备处理直接内存访问、维护连接状态、执行传输协议卸载等硬件能力。常见的 RNIC 包括 NVIDIA原 Mellanox的 ConnectX 系列网卡。 内存注册 (Memory Registration / Pinning): 由于 RDMA 需要直接访问物理内存应用程序必须在使用 RDMA 传输数据前将相关的内存区域进行“注册”或“钉住”Pinning。内存注册确保了操作系统不会将这部分内存交换到磁盘page out并为 RNIC 提供了稳定、可直接访问的物理内存地址。注册过程通常涉及保护域Protection Domain, PD和内存区域Memory Region, MR的创建和管理。虽然内存注册是 RDMA 实现直接访问的关键机制但它也引入了额外的编程复杂性。与使用操作系统管理的虚拟内存的标准套接字编程相比RDMA 应用需要显式地管理这些固定内存区域增加了额外的步骤如创建 PD、MR、获取 rkey和潜在的故障点。 关键操作: RDMA 定义了一系列操作原语其中最核心的是 RDMA 写 (RDMA Write): 一种“单边”One-sided操作发起方Initiator指定远程内存地址并将数据直接写入该地址无需接收方应用程序的显式接收动作。 RDMA 读 (RDMA Read): 另一种单边操作发起方指定远程内存地址并直接从中读取数据同样无需接收方应用程序的介入。 发送/接收 (Send/Receive): 这是“双边”Two-sided操作需要发送方和接收方进行协调接收方需要预先发布接收请求。虽然需要协调但仍然受益于 RDMA 的硬件卸载和低开销传输。 编程接口: 实现这些操作通常需要使用 RDMA 编程库如 libibverbs涉及队列对Queue Pair, QP和完成队列Completion Queue, CQ等核心数据结构的管理。 2.3 主要协议InfiniBand vs. RoCE vs. iWARP 实现 RDMA 功能可以通过多种底层网络协议 InfiniBand (IB): InfiniBand 是一种从头开始设计的高性能网络技术原生支持 RDMA。它通常用于 HPC 集群和需要极致性能的场景。部署 InfiniBand 需要专用的 IB 交换机和适配器卡构成一个独立的网络结构。 RoCE (RDMA over Converged Ethernet): RoCE 协议允许在标准的以太网基础设施上运行 RDMA 操作。它有两个主要版本 RoCE v1工作在以太网链路层要求底层网络是无损的通常通过基于优先级的流控 PFC 实现。 RoCE v2工作在 UDP/IP 之上因此是可路由的并且可以在有损或无损的以太网上运行。RoCE 的主要优势在于能够利用现有的、广泛部署的以太网设备。 iWARP (Internet Wide Area RDMA Protocol): iWARP 是另一种在 TCP/IP 上实现 RDMA 的协议。它提供了较好的兼容性因为可以运行在任何支持 TCP/IP 的网络上但相对于 RoCE 和 InfiniBand其协议开销通常更高可能导致延迟增加和性能下降。 选择 InfiniBand 还是 RoCE 对基础设施有显著影响。InfiniBand 可能在专用环境中提供最佳性能和最低延迟但需要投资建设独立的网络。RoCE 则允许在现有的以太网设施上实现 RDMA更具成本效益和灵活性但可能需要仔细的网络配置如为 RoCE v1 配置无损网络或为 RoCE v2 调整拥塞控制机制以获得理想性能。 2.4 量化优势低延迟与高带宽 RDMA 的核心优势最终体现在其卓越的性能指标上 超低延迟: 通过零拷贝、内核旁路和 CPU 卸载RDMA 将端到端的通信延迟显著降低到微秒µs级别。这对于需要快速响应和频繁小消息交换的应用如梯度同步、分布式事务至关重要。 极高带宽: 绕过软件协议栈的处理瓶颈RDMA 能够实现非常高的网络吞吐量通常可以接近物理链路的线速例如 100 Gbps、200 Gbps 甚至 400 Gbps 及以上。相比之下TCP/IP 在高速链路下性能可能会因为 CPU 处理能力或协议开销而饱和。 三、大模型工作负载中的网络通信瓶颈 虽然 RDMA 提供了强大的网络性能但理解它为何对大模型训练和推理如此重要需要先分析这些工作负载中存在的具体网络瓶颈。 3.1 分布式训练的挑战 训练大型模型尤其是 LLM通常采用分布式策略将计算任务分散到大量 GPU 或 TPU 上。这个过程对网络通信提出了极高的要求 规模与数据量: 训练可能涉及数千个计算单元模型参数和中间数据如激活值规模巨大。例如训练像 GPT-3 这样的 175B 参数模型在反向传播过程中需要交换 PB 级别的数据。 梯度同步: 同步数据并行Synchronous Data Parallelism是最常见的分布式训练方法之一。在这种模式下每个工作节点Worker处理一部分数据计算梯度然后在每一步Iteration都需要通过集体通信操作如 All-Reduce聚合所有节点的梯度以保证模型参数的一致性更新。All-Reduce 操作对网络的延迟和带宽都极为敏感频繁的全局同步使其成为主要的性能瓶颈。 参数交换: 除了数据并行模型并行Model Parallelism、流水线并行Pipeline Parallelism和张量并行Tensor Parallelism等更复杂的并行策略也被广泛采用以适应更大规模的模型。这些策略虽然可能减少单个节点上的内存压力但往往引入更复杂的节点间通信模式例如交换激活值、部分梯度或模型分片Shards。这种对高性能互连的依赖性甚至超过了纯粹的数据并行。 TCP/IP 开销: 在大规模、高频率的通信场景下标准 TCP/IP 协议栈的开销变得不可忽视。协议处理、多次内存拷贝、上下文切换以及潜在的网络拥塞都会显著增加通信时间限制整体训练速度。 掉队者 (Stragglers): 在同步训练中任何一个工作节点的延迟可能由网络波动、计算缓慢或硬件差异引起都会拖慢整个训练集群的进度因为所有节点必须等待最慢的节点完成梯度计算和同步。高效、低延迟的网络有助于减少掉队现象。 框架依赖: 主流的深度学习框架如 PyTorch使用 DistributedDataParallel (DDP) 或 Fully Sharded Data Parallel (FSDP) 和 TensorFlow使用 MirroredStrategy 或 MultiWorkerMirroredStrategy都依赖底层的通信库如 NVIDIA Collective Communications Library (NCCL), Gloo, Message Passing Interface (MPI)来执行分布式操作。这些通信库能够充分利用 RDMA 提供的低延迟、高带宽特性来加速集体通信。 3.2 高吞吐、低延迟推理的挑战 将训练好的大模型部署为在线服务用于推理Inference同样面临网络相关的挑战尽管侧重点有所不同 实时性要求: 许多 LLM 应用如交互式聊天机器人、实时推荐系统等对响应延迟有严格要求。关键指标包括首个令牌生成时间Time-to-First-Token, TTFT和令牌间延迟Inter-Token Latency, ITL。低延迟网络有助于缩短这些时间提升用户体验。 可扩展性: 推理服务的负载通常具有波动性需要系统能够快速扩展以应对用户需求的峰值同时保持稳定的性能。高吞吐量每秒处理的请求数或生成的令牌数对于满足大规模用户需求和控制服务成本至关重要。 模型大小与内存: 即便用于推理大型模型也可能需要占用大量内存有时甚至需要跨多个 GPU 或多个节点进行部署例如使用张量并行。这种分布式推理场景下GPU 间的通信效率直接影响推理速度。 Prefill 与 Decode 阶段: LLM 推理包含两个主要阶段Prefill 阶段处理输入提示Prompt计算量较大Decode 阶段自回归地逐个生成输出令牌对内存带宽更敏感。这两个阶段的计算特性不同将它们混合在同一批次或同一硬件上处理可能导致资源竞争和性能下降。高效管理键值缓存KV Cache对于优化 Decode 阶段至关重要。 网络影响: 虽然推理通常被认为是计算密集型Prefill或内存带宽密集型Decode任务但在以下场景中网络性能仍然扮演着重要角色 分布式推理: 当模型通过张量并行等方式分布在多个节点上时节点间的参数或中间结果传递需要低延迟网络。 模型加载: 从存储系统加载庞大的模型文件到 GPU 内存可能耗时较长高速网络如基于 RDMA 的存储访问可以加速这一过程。 解耦式推理架构 (Disaggregated Inference): 将 Prefill 和 Decode 阶段部署到不同的硬件池或节点上以优化资源利用率。这种架构需要通过网络高效地传输状态信息如 KV CacheRDMA 的低延迟特性在此类场景下具有优势。 分布式 KV 缓存: 跨节点管理或卸载 KV 缓存也可能涉及网络传输。 分析训练和推理的瓶颈可以看出尽管具体表现形式不同训练侧重于大规模、高频的集体通信效率推理侧重于单次请求的低延迟和整体吞吐量两者都对底层网络的低延迟和高带宽提出了强烈需求。这使得 RDMA 成为一个能够同时优化 LLM 生命周期中这两个关键阶段的有吸引力的技术选项。此外随着推理架构日益复杂和分布式化如解耦式推理、专家混合模型路由、分布式 KV 缓存对低延迟互连的需求预计将进一步增加使得 RDMA 在推理场景中的重要性日益凸显。 四、Kubernetes RDMA 实战 4.1 前置硬件 4.2 Kubernetes设备插件 ## 安装rdma 设备插件 k8s-rdma-shared-dev-plugin git clone https://github.com/Mellanox/k8s-rdma-shared-dev-plugin cd deployment/k8s/base kubectl apply -k . cat EOF | kubectl apply -f - apiVersion: v1 data:config.json: |{periodicUpdateInterval: 300,configList: [{resourceName: hca_shared_devices_a,resourcePrefix: rdma,rdmaHcaMax: 200,selectors: {ifNames: [ibs108]}}]} kind: ConfigMap metadata:name: rdma-devicesnamespace: kube-system EOF kubectl get node te1 -o jsonpath{.status.capacity} | jq 补充 selectors说明 selectors: {ifNames: [ib0],vendors: [15b3],devices: [1017],drivers: [mlx5_core],pfNames: [ens3f0],linkTypes: [infiniband],rootDevices: [0000:81:00.0] } lspci -nn | grep -i Mellanox解读: [15b3:101b] 这部分就是你需要的信息。 vendors: 厂商 ID 是 15b3。 deviceIDs: 设备 ID 是 101b。 # 查询 ifNames ibdev2netdev解读: ifNames: 这里的 ibs108 就是可以用于 selector 的接口名 #查询 linkTypes ibstat mlx5_0解读: Link layer: InfiniBand 表示 linkTypes 是 IB。 如果是 Ethernet则对应 ETH 4.3 Pod调度分配 rdma 网卡 cat EOF | kubectl apply -f - apiVersion: apps/v1 kind: DaemonSet metadata:name: nccl-testnamespace: default spec:selector:matchLabels:app: nccl-testtemplate:metadata:labels:app: nccl-testspec:tolerations:- key: nvidia.com/gpuoperator: Existseffect: NoSchedulehostNetwork: truehostPID: truecontainers:- name: nccl-testimage: nvcr.io/nvidia/hpc-benchmarks:25.04command: [/bin/bash, -c]args:- |echo Pod is ready. Use kubectl exec to run NCCL tests interactively, e.g. all_reduce_perf;sleep infinityresources:limits:nvidia.com/gpu: 1rdma/hca_shared_devices_a: 1requests:nvidia.com/gpu: 1rdma/hca_shared_devices_a: 1securityContext:capabilities:add: [IPC_LOCK]volumeMounts:- name: infinibandmountPath: /dev/infiniband- name: sys-infinibandmountPath: /sys/class/infinibandvolumes:- name: infinibandhostPath:path: /dev/infiniband- name: sys-infinibandhostPath:path: /sys/class/infiniband EOF nvcr.io/nvidia/hpc-benchmarks:25.04 kubectl -n kube-system rollout restart ds nccl-test-daemonset 4.4 测试rdma 网络性能 kubectl exec -it nccl-test-bm4lj -- ls /usr/local/bin | grep perf 单机测试: 跨节点测试: ## 需要配置免密 ## 安装ssh相关依赖 unset http_proxy https_proxy all_proxy apt-get update apt-get install -y openssh-server apt-get install -y iputils-ping apt-get install -y ibverbs-utils# 容器1 / 容器2 都需要配置 sed -i s/^#\?Port .*/Port 2222/ /etc/ssh/sshd_config sed -i s/#PermitRootLogin prohibit-password/PermitRootLogin yes/ /etc/ssh/sshd_config service ssh restart# 配置密码 passwd## 免密 node1 / node2 相互免密 cd ~/.ssh ssh-keygen -t rsa cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys chmod 600 ~/.ssh/aut ssh-copy-id -i ~/.ssh/id_rsa.pub -p 2222 root10.1.4.72 ssh-copy-id -i ~/.ssh/id_rsa.pub -p 2222 root10.1.4.74## 测试 ssh -p 2222 root10.1.4.74 hostname ## 跨节点测试 cat /workspace/hostfile EOF 10.1.4.72 slots4 10.1.4.74 slots4 EOFexport LD_LIBRARY_PATH/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH export NCCL_DEBUGINFO export NCCL_SOCKET_IFNAMEibs108 export NCCL_IB_HCAmlx5_0 export NCCL_IB_TIMEOUT22 export NCCL_NET_GDR_LEVEL5mpirun -np 8 --allow-run-as-root \--hostfile /workspace/hostfile \--map-by ppr:4:node:PE$OMP_NUM_THREADS \--rank-by node \--bind-to core \\-x LD_LIBRARY_PATH \-x NCCL_DEBUG \-x NCCL_SOCKET_IFNAME \-x NCCL_IB_HCA \-x NCCL_IB_TIMEOUT \-x NCCL_NET_GDR_LEVEL \\--mca plm_rsh_agent ssh -p 2222 \--mca pml ucx \--mca btl ^openib,tcp,vader,self \--mca oob_tcp_if_include ibs108 \\/usr/local/bin/all_reduce_perf -b 8 -e 8G -f 2 -g 1 五、小结 Kubernetes 下开启 RDMA 能力是大规模 AI 训练/推理集群迈向高性能、高扩展的关键步骤。RDMA 技术以其“零拷贝、内核旁路、CPU 卸载”等硬核特性将通信延迟大幅降低至微秒级极大提升了分布式训练的同步效率和大模型推理的吞吐极限。 参考: https://github.com/Mellanox/k8s-rdma-shared-dev-pluginhttps://github.com/Mellanox/k8s-rdma-shared-dev-plugin https://zhuanlan.zhihu.com/p/55142557https://zhuanlan.zhihu.com/p/55142557 RDMA Aware Networks Programming User Manual - NVIDIA Docshttps://docs.nvidia.com/networking/display/rdmaawareprogrammingv17 RDMA(远程直接内存访问)原理架构图文详解与传统通信模式对比_rdma内存访问过程-CSDN博客文章浏览阅读2.4w次点赞46次收藏104次。文章目录1 传统通信模式1.1传统网络通信过程2 RDMA基本原理与优势2.1 基本原理3 RDMA原理详解3.1 支持RDMA的网络协议3.2 核心概念3.2.1 基本概念3.2.2 RDMA工作流程RDMA双边操作send/receiveRDAM单边操作read阅读指南 本文较长请细心阅读其中3.1节可以跳过不读。对RDMA概念有所了解的可以直接从3.2节开始阅读。1 传统..._rdma内存访问过程https://blog.csdn.net/qq_40323844/article/details/90680159 RDMA 架构与实践(技术详解一RDMA概述) - bdy - 博客园RDMA 架构与实践 | https://houmin.cc/posts/454a90d3/ RDMA即 Remote Direct Memory Access是一种绕过远程主机 OS kernel 访问其内存中数据的技术概念源自于 DMA 技术。在...https://www.cnblogs.com/bandaoyu/p/16752034.html 详解RDMA架构和技术原理 - 张同光 - 博客园https://blog.51cto.com/u_15127636/2766990 2021-05-11 13:26:56 面对高性能计算、大数据分析和浪涌型IO高并发、低时延应用现有TCP/IP软硬件架构和应用高CPU消耗的技术特征根本不能满足应用的需求。这要有体现在处理延时过大数十微秒多次https://www.cnblogs.com/ztguang/p/15203071.html
http://www.w-s-a.com/news/441122/

相关文章:

  • 公司网站的重要性门户网站推广介绍方案
  • 做金融网站看那些素材江门网红打卡景点蓬江区
  • 饮食网站模板建网站中企动力优
  • 郑州 制造 网站东平企业建站公司
  • 天津设计师网站大全展示型网站搭建
  • 南宁网站建设 传导网站开发平台开发公司
  • 网站建设好处上海建设工程网站
  • 黑河哈尔滨网站建设太原网站制作定制开发
  • 建站做网站香河住房与建设局网站
  • 如何制造一个网站域名分类网站
  • 解析视频的网站怎么做凡科网快图
  • 企业网站优化问题接单app平台有哪些
  • 怎么做网站后缀识别符号才不会变什么是电子商务网站建设
  • 中山 五金 骏域网站建设专家专门用来制作网页的软件是什么
  • 怎么做刷东西的网站数据分析软件工具有哪些
  • 官方购物网站正品交易网站域名
  • lol网站建设seo 网站太小
  • 网站建设销售职责手机网站制作软件
  • 福州百度企业网站seo如何在电脑上登录wordpress
  • 开发区全力做好网站建设网络广告营销成功案例
  • 114网站建设高并发系统架构
  • php网站打开一片空白wordpress中文广告插件下载
  • 怎样建自己的网站免费的百度关键词排名点击
  • 医院网站建设的特点怎么查看网站百度快照
  • 网站 如何备案一般网站开发公司
  • 做网站的公司 贵阳郑州新像素ui设计培训收费
  • 温州网站建设公司电话给个免费的网址
  • 个人做电子商务网站备案软考高级
  • 淘宝客需要自己做网站吗四川遂宁做网站的公司
  • 编写网站策划书缘魁上海网站建设