官方详解 DeepSeek-V3 / R1 推理系统:优化目标是更大吞吐、更低延迟
IT之家 3 月 1 日消息,DeepSeek 官方今日在知乎发布《DeepSeek-V3 / R1 推理系统概览》一文,详细介绍如何使用大规模跨节点专家并行(Expert Parallelism / EP)来增大 batch size,如何隐藏传输的耗时,如何进行负载均衡。
官方表示,DeepSeek-V3 / R1 推理系统的优化目标是更大的吞吐,更低的延迟。
IT之家附 DeepSeek 提出的方案如下:
大规模跨节点专家并行(Expert Parallelism / EP)
由于 DeepSeek-V3 / R1 的专家数量众多,并且每层 256 个专家中仅激活其中 8 个。模型的高度稀疏性决定了 DeepSeek 必须采用很大的 overall batch size,才能给每个专家提供足够的 expert batch size,从而实现更大的吞吐、更低的延时。需要大规模跨节点专家并行(Expert Parallelism / EP)。
DeepSeek 采用多机多卡间的专家并行策略来达到以下目的:
Prefill:路由专家 EP32、MLA 和共享专家 DP32,一个部署单元是 4 节点,32 个冗余路由专家,每张卡 9 个路由专家和 1 个共享专家
Decode:路由专家 EP144、MLA 和共享专家 DP144,一个部署单元是 18 节点,32 个冗余路由专家,每张卡 2 个路由专家和 1 个共享专家
计算通信重叠
多机多卡的专家并行会引入比较大的通信开销,因此使用双 batch 重叠来掩盖通信开销,提高整体吞吐。
对于 prefill 阶段,两个 batch 的计算和通信交错进行,一个 batch 在进行计算的时候可以去掩盖另一个 batch 的通信开销;
Prefill 阶段的双 batch 重叠 对于 decode 阶段,不同阶段的执行时间有所差别,因此将 attention 部分拆成了两个 stage,共计 5 个 stage 的流水线来实现计算和通信的重叠。
Decode 阶段的双 batch 重叠 关于更多双 batch 重叠的细节,可参考 profiling 数据 GitHub 仓库:https://github.com/deepseek-ai/profile-data。
尽可能地负载均衡
由于采用了很大规模的并行(包括数据并行和专家并行),如果某个 GPU 的计算或通信负载过重,将成为性能瓶颈,拖慢整个系统;同时其他 GPU 因为等待而空转,造成整体利用率下降。因此需尽可能为每个 GPU 分配均衡的计算负载、通信负载。
Prefill Load Balancer
核心问题:不同数据并行(DP)实例上的请求个数、长度不同,导致 core-attention 计算量、dispatch 发送量也不同
优化目标:各 GPU 的计算量尽量相同(core-attention 计算负载均衡)、输入的 token 数量也尽量相同(dispatch 发送量负载均衡),避免部分 GPU 处理时间过长
Decode Load Balancer
核心问题:不同数据并行(DP)实例上的请求数量、长度不同,导致 core-attention 计算量(与 KVCache 占用量相关)、dispatch 发送量不同
优化目标:各 GPU 的 KVCache 占用量尽量相同(core-attention 计算负载均衡)、请求数量尽量相同(dispatch 发送量负载均衡)
Expert-Parallel Load Balancer
核心问题:对于给定 MoE 模型,存在一些天然的高负载专家(expert),导致不同 GPU 的专家计算负载不均衡
优化目标:每个 GPU 上的专家计算量均衡(即最小化所有 GPU 的 dispatch 接收量的最大值)
参考架构图
线上系统的实际统计数据
DeepSeek V3 和 R1 的所有服务均使用 H800 GPU,使用和训练一致的精度,即矩阵计算和 dispatch 传输采用和训练一致的 FP8 格式,core-attention 计算和 combine 传输采用和训练一致的 BF16,最大程度保证了服务效果。另外,由于白天的服务负荷高,晚上的服务负荷低,因此 DeepSeek 实现了一套机制:
白天负荷高时用所有节点部署推理服务。
晚上负荷低时,减少推理节点,以用来做研究和训练。、
在最近的 24 小时里(北京时间 2025/02/27 12:00 至 2025/02/28 12:00),DeepSeek V3 和 R1 推理服务占用节点总和,峰值占用为 278 个节点,平均占用 226.75 个节点(每个节点为 8 个 H800 GPU)。假定 GPU 租赁成本为 2 美金 / 小时,总成本为 $87,072 / 天。
在 24 小时统计时段内,DeepSeek V3 和 R1:
输入 token 总数为 608B,其中 342B tokens(56.3%)命中 KVCache 硬盘缓存。
输出 token 总数为 168B。平均输出速率为 20~22 tps,平均每输出一个 token 的 KVCache 长度是 4989。
平均每台 H800 的吞吐量为:对于 prefill 任务,输入吞吐约 73.7k tokens / s(含缓存命中);对于 decode 任务,输出吞吐约 14.8k tokens / s。以上统计包括了网页、APP 和 API 的所有负载。如果所有 tokens 全部按照 DeepSeek R1 的定价计算,理论上一天的总收入为 $562,027,成本利润率 545%。
“当然我们实际上没有这么多收入,因为 V3 的定价更低,同时收费服务只占了一部分,另外夜间还会有折扣。”
DeepSeek R1 的定价:$0.14 / 百万输入 tokens (缓存命中),$0.55 / 百万输入 tokens (缓存未命中),$2.19 / 百万输出 tokens。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。