0

0

Kimi Linear 一作张宇:关于模型训练的一些感想

花韻仙語

花韻仙語

发布时间:2025-11-03 21:38:01

|

1014人浏览过

|

来源于php中文网

原创

月之暗面发布了名为 “kimi linear” 的混合线性注意力架构,据称在短距离、长距离及强化学习(rl)等多种扩展场景中均优于传统全注意力方法。kimi linear 由 3 份 kimi delta attention(kda)和 1 份全局 mla 组成。kda 是对 gated deltanet 的改进,通过细粒度门控来压缩有限状态 rnn 的记忆。

近日,Kimi Linear 核心作者分享了关于他对于该项目的一些感想:

作者:yzhangcs 链接:https://www.zhihu.com/question/1967345030881584585/answer/1967730385816385407

终于忙完了 Kimi Linear 的 Model Card 和 Paper ArXiv 上传,放空了半天。现在稍微分享一下个人感想,顺便做一些澄清。

模型架构

Kimi Linear 一作张宇:关于模型训练的一些感想

模型整体架构设计如图所示,延续了Moonlight的设计思路,别的回答已经有不少优秀的解读了。这次最大的不同在于我们将MoE的稀疏度设置得更激进,从8到32。 而 Kimi Linear 的核心设计原则,第一主要采用Linear Attention,这也是名字的由来,具体来说则是KDA,在GDN的基础上融入了 GLA 的细粒度门控。核心 Recurrent 公式中,关键的 Decay 部分已经标红了。

Kimi Linear 一作张宇:关于模型训练的一些感想

这张图的tikz代码主要修改自delta product,当然也借鉴了RWKV7,如果某些人认为这是抄袭那随便你

其次,这是一个hybrid model,考虑到纯Linear Attention对工业级 LLM 来说风险还是太大,我们最终采用了Hybrid Model的方案,也就是KDA:MLA的层混合比例为3:1。经过Ablation Study,我们发现3:1是兼顾效率和性能的最优比例。

最终成果是,在相同的 5.7T Token 训练量以及相似的 3B 激活参数下,模型效果得到了巨大提升。我们的许多 Benchmark 对比都呈现出「大人打小孩」的态势,说实话有些setting不太 fair,只能说它作为一个小规模模型训出的成果,能够给大家带来一些新的 vibe。

个人体验下来感觉非常棒,在一些野生玩家那里体验也挺好的。(https://www.reddit.com/r/LocalLLaMA/comments/1ojz8pz/kimi_linear_released/)

虽然在 math/code 等一些 benchmark 上由于训练量和参数规模还很不够,比不上其他厂商同参数规模的模型,但模型的 personality非常出色,比较有小K2感。在解码方面,如果考虑到 KDA 的 KV Cache 占用小带来的 Batch Size 补偿,最终加速比能达到 6 倍左右。整体效果完全符合预期。

 

Runwayml(AI painting)
Runwayml(AI painting)

Runway 平台的文本生成图像AI工具

下载

个人感想

训练过程

这是第一次作为核心成员去 scale 这么大的模型,之前个人 research 玩得最多也就是 7B Dense,训个 100B Token,32 卡跑个几天也就够了。这次则是 scale 到了 48B MoE 的规模,5.7T 的训练量。当然,对真正的大模型来说这还是只小卡拉米,不过对我个人来说算是一次突破。 管理模型训练是一件非常难受的事情。分布式总是会中断,尽管有自动重启,但还是不太放心,因此总是需要人盯。然后本人作息又非常抽象,和 collaborator 们(johnson & momo,名字用代号了)经常是 UTC+8 过湾区时间,湾区过北京时间。

Ablation 也经过了漫长的过程,有不少细节论文中没有提到。比如NoPE 还是 RoPE经过怎样的选择;Forget gate 到底选择是 pure sigmoid 还是 GDN style;output gate 的作用,这些都经过了漫长的探索,我们综合考虑short & long context最终才收敛到了现在的形式。

Scaling Ladder 是 Kimi 内部 scale 模型的一个传统。我们会从一个小的(比如 1B 激活参数)开始做起,逐步在 Benchmark 上要打败 Baseline,与此同时需要监控相应的「内科」。等到每个 scale 的每一关都过了,才会进行到下一阶段。并且由于 Hybrid Linear 是开天辟地头一遭,自然经过了更多的审视。比如长文有很多典型Benchmark,MRCR、RULER、Frames 等等作为拦路虎,当有一个明显差异都要 revert 到上一阶段,无论是查 Bug 还是看推理引擎(对于 MoE 模型,评测时推理引擎的支持是必不可少的,否则速度无法忍受)。这些我都非常理解也很认同,但是当多种因素交织时——到底是推理 Bug 导致掉点,还是「内科」炸了,还是 Linear 本身不行——导致的失败会让人非常沮丧。 最终的5.7T训练过程也是波折不断,比如模型中有两个A_log,bias参数,一开始训的时候是保持的bf16,整个阶段虽然没炸,但一直都在上涨,让人很担心,后来训练中途切到了fp32,发现这两个vector的max value 飞速下降,这才意识到对于这些关键参数保持fp32是非常必要的,但是我们是中途切换,有多大的影响呢?不知道,只能说是对于flagship model的一次derisk了。

好在最后我们交出了一份还算满意的答卷。

关于postrain,之前 Moonlight 级别的 posttrain recipe 还不太成熟,有尝试过直接迁移 K2的方案,发现会遇到一些不太吸收的问题。为此和 fanqing & chengyin,还有 postrain team 的小伙伴进行了长时间的攻坚,期间尝试了几十种不同的数据配方。 我们也观测到许多有意思的现象,特别是对于 Kimi Linear 这种 scale 的小模型而言,榜单成绩和实际使用体验往往是不可兼得的。 如果 Math & Code 分数很高,你往往Vibe起来会非常差(非常 Thinking)。因此,最终我们选择了一个在榜单成绩和实际体验之间平衡得比较好的方案。

Bitter Lesson:这篇 Tech Report 最初的目标是达到类似size模型的SOTA。但事后来看资源限制短时间内没法达成这个目标。 因此最后我们的主战场放到了 1T fair comparisons 上,这些实验本身是 Scaling Ladder 的一部分,也都满足公平比较。后面还是希望释放更多的 Fair Baseline,有一些更丰富的比较。因此这个 Report 的定位是一个技术验证,也是下一代K3的前奏。

 

其他

这两天看到了非常多关于 model 和 arch 的评价,最大的部分是关于和 RWKV7 的比较,区别是什么 @sonta在另一个回答已经说了,如果你们还是觉得一样那随便你好了。

Kimi 的目标是下一代 flagship models,正如 Moonlight 中致敬了 Muon 的作者,Kimi Linear 也会引用能够aware 的 previous work,不存在刻意忽略的动机,以及我想说,与其整天拉踩别人,还是好好想想怎么 scale 自己的东西吧,整天对线又有啥用呢?

我想说我觉得个人在一个比较恰当的时机加入了 Kimi,恰好在 deepseek R1 开源的时候,促使各家厂商都纷纷转向了开源(因此今年仍然有机会继续维护 FLA,顺手实现了 NSA :)),刚好今年算是 agent 大年,对于动辄 32k + 的推理长度,Linear Attention 刚好可以发挥所长。并且个人作为 FLA 的 core contributors 之一,将之发扬光大给了我最大的驱动力。去年一整年都捐给了 FLA,增加了 scaling 的各种支持,各种配套的 fused kernels,Cache 管理,varlen training,FLA 各种状态都 ready 了,顺风顺水来到了一个关键的时间节点被 scaling。并且我也觉得时间窗口会比较短暂,大家本身就是对 hybrid model 将信将疑,如果 FLA team @sonta @zhiyuan1i 都没法去 scaling 或者 scaling 失败了,那这条技术路线就会受到很大的质疑。好在目前看起来的结果还行。

当前,Linear Attention 的迭代路线正逐渐收敛到 Delta-variants。近期也有很多其他工作浮现,如TTT/Titans,但这些方法在硬件效率方面似乎仍有待提升。与此同时,Sparse Attention 也成为了另一条备受关注的技术路线,尤其是 NSA的设计理念,我个人非常欣赏。然而,究竟哪条技术路线更具优势,目前仍是一个未知数。总的而言,Efficient Attention无疑是当前研究领域的一大聚焦点。希望 Kimi 此次开源的 KDA能够为业界带来更多启发,推动Hybrid models的真正落地!

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
什么是分布式
什么是分布式

分布式是一种计算和数据处理的方式,将计算任务或数据分散到多个计算机或节点中进行处理。本专题为大家提供分布式相关的文章、下载、课程内容,供大家免费下载体验。

404

2023.08.11

分布式和微服务的区别
分布式和微服务的区别

分布式和微服务的区别在定义和概念、设计思想、粒度和复杂性、服务边界和自治性、技术栈和部署方式等。本专题为大家提供分布式和微服务相关的文章、下载、课程内容,供大家免费下载体验。

250

2023.10.07

登录token无效
登录token无效

登录token无效解决方法:1、检查token的有效期限,如果token已经过期,需要重新获取一个新的token;2、检查token的签名,如果签名不正确,需要重新获取一个新的token;3、检查密钥的正确性,如果密钥不正确,需要重新获取一个新的token;4、使用HTTPS协议传输token,建议使用HTTPS协议进行传输 ;5、使用双因素认证,双因素认证可以提高账户的安全性。

6559

2023.09.14

登录token无效怎么办
登录token无效怎么办

登录token无效的解决办法有检查Token是否过期、检查Token是否正确、检查Token是否被篡改、检查Token是否与用户匹配、清除缓存或Cookie、检查网络连接和服务器状态、重新登录或请求新的Token、联系技术支持或开发人员等。本专题为大家提供token相关的文章、下载、课程内容,供大家免费下载体验。

840

2023.09.14

token怎么获取
token怎么获取

获取token值的方法:1、小程序调用“wx.login()”获取 临时登录凭证code,并回传到开发者服务器;2、开发者服务器以code换取,用户唯一标识openid和会话密钥“session_key”。想了解更详细的内容,可以阅读本专题下面的文章。

1089

2023.12.21

token什么意思
token什么意思

token是一种用于表示用户权限、记录交易信息、支付虚拟货币的数字货币。可以用来在特定的网络上进行交易,用来购买或出售特定的虚拟货币,也可以用来支付特定的服务费用。想了解更多token什么意思的相关内容可以访问本专题下面的文章。

1864

2024.03.01

http与https有哪些区别
http与https有哪些区别

http与https的区别:1、协议安全性;2、连接方式;3、证书管理;4、连接状态;5、端口号;6、资源消耗;7、兼容性。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

2836

2024.08.16

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

1

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

19

2026.03.05

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号