Warning: fopen(game/mwejns52012): failed to open stream: No space left on device in /www/wwwroot/t014.baguatan.cn/public/game.php on line 35

Warning: fwrite() expects parameter 1 to be resource, bool given in /www/wwwroot/t014.baguatan.cn/public/game.php on line 36

Warning: fclose() expects parameter 1 to be resource, bool given in /www/wwwroot/t014.baguatan.cn/public/game.php on line 37
月之暗面 Kimi 开源 Moonlight:30 亿 / 160 亿参数混合专家模型
月之暗面 Kimi 开源 Moonlight:30 亿 / 160 亿参数混合专家模型

月之暗面 Kimi 开源 Moonlight:30 亿 / 160 亿参数混合专家模型

作者: 发表时间:2025-10-08 1:25:43
福州市政要信息app 广安市论坛app 内江市妇联救助app 珠海市司法管理app 张家口市税务局app 临汾市环境保护协会app 赣州市学校简介app 广州市不良信息举报app 唐山市第一小学app 庆阳市工程造价app 南昌市消费协会app 嘉峪关市教育局app 延安市第四高中app 福州市农业补贴app 合江县申建app 石柱土家族自治县便民app 碌曲县农业补贴app 景东彝族自治县旅游协会app 洛浦县特殊家庭关爱协会app 婺源县公正处app 玉田县警务app 肥西县第六小学app 黔西县电力app 芦山县非物质文化遗产app 得荣县建设局信息app 临泽县社会求助app 道县教育信息app 桐庐县申建app 于田县申建app

本站 2 月 24 日消息,月之暗面 Kimi 昨日发布了“Muon 可扩展用于 LLM 训练”的新技术报告,并宣布推出“Moonlight”:一个在 Muon 上训练的 30 亿 / 160 亿参数混合专家模型(MoE)。使用了 5.7 万亿个 token,在更低的浮点运算次数(FLOPs)下实现了更好的性能,从而提升了帕累托效率边界。

月之暗面称,团队发现 Muon 优化器可通过添加权重衰减、仔细调整每个参数的更新幅度等技术进行扩展,并具备如下亮点:

这些技术使得 Muon 能够在大规模训练中开箱即用,无需进行超参数调优。扩展法则实验表明,与计算最优训练的 AdamW 相比,Muon 实现了约 2 倍的计算效率。

本次论文所使用的模型为 Moonlight-16B-A3B,总参数量为 15.29B,激活参数为 2.24B,其使用 Muon 优化器,在 5.7T Tokens 的训练数据下获得上述成绩。

我们的模型不仅突破了当前的 Pareto 前沿,还在训练所需的 FLOP 数大幅减少的情况下,达到了比以往模型更优的性能。

我们开源了一个分布式版本的 Muon 实现,它在内存使用和通信效率上都进行了优化。同时,我们也发布了预训练模型、经过指令调优的模型以及中间训练检查点,旨在为未来的研究提供支持。

本站附有关链接如下:

    GitHub:点此前往

    Hugging Face :点此前往

相关文章