Warning: fopen(game/rkshs): failed to open stream: No space left on device in /www/wwwroot/t014.baguatan.cn/public/game.php on line 35

Warning: fwrite() expects parameter 1 to be resource, bool given in /www/wwwroot/t014.baguatan.cn/public/game.php on line 36

Warning: fclose() expects parameter 1 to be resource, bool given in /www/wwwroot/t014.baguatan.cn/public/game.php on line 37
DeepSeek第二炸!开源首个用于MoE模型训练通信库
DeepSeek第二炸!开源首个用于MoE模型训练通信库

DeepSeek第二炸!开源首个用于MoE模型训练通信库

作者: 发表时间:2025-09-07 12:25:20
常州市中心校app 无锡市第一小学app 吴忠市第五小学app 宣城市消防宣传app 三门峡市人社管理app 哈尔滨市第四小学app 苏州市灾害救助app 萍乡市劳动局app 汕尾市惠农app 邯郸市新闻中心app 达州市重大建设公开app 阳泉市特殊家庭关爱协会app 太湖县第三中学app 屏山县中心校app 仙居县工商信息app 沽源县残联app 浠水县防灾信息app 滦南县第二高中app 武陟县天气监控中心app 塔什库尔干塔吉克自治县教育信息app 龙门县土地局app 宜君县助农app 鄄城县应急管理app 上思县历史记录app

DeepSeek 的“开源周”活动今日已经来到第二天,今天发布的是首个开源的用于 MoE 模型训练和推理的 EP 通信库 ——DeepEP。

本站

官方表示其具备如下特征:

高效优化的全到全通信方式

支持节点内外通信,兼容 NVLink 和 RDMA 技术

提供高吞吐量的内核,提升训练和推理前期填充效率

提供低延迟内核,优化推理解码速度

完全支持 FP8 数据格式调度

提供灵活的 GPU 资源管理,支持计算与通信的重叠执行

本站

据介绍,DeepEP 是一款专为混合专家(MoE)和专家并行(EP)设计的通信库,提供了高吞吐量和低延迟的 all-to-all GPU 内核,常用于 MoE 派发和合并操作。该库还支持低精度计算,包括 FP8。

为了与 DeepSeek-V3 论文中提出的组限制门控算法兼容,DeepEP 提供了一些针对不对称带宽转发优化的内核,比如将数据从 NVLink 域转发到 RDMA 域。这些优化的内核能够提供高吞吐量,适合用于训练和推理的预填充任务,同时支持 SM(流式多处理器)数量控制。

对于延迟敏感型的推理解码任务,DeepEP 提供了一套低延迟内核,采用纯 RDMA 技术以最大程度减少延迟。此外,该库还采用了一种基于 Hook 的通信与计算重叠方法,不会占用任何 SM 资源。

相关文章