【月之暗面:一年前就验证过长思维链,因成本高先搞了长文本】2月17日上午消息,月之暗面研究员Flood Sung近日分享了k1.5 模型背后的完整思考过程,并透露称,2024年9月 12 号OpenAI o1 发布带来的震撼效果,令自己陷入了Long-CoT的有效性反思中。因为 Long-CoT 的有效性,其实在一年多前月之暗面Kimi联合创始人Tim周昕宇就验证过,使用很小的模型,训练模型做几十位的加减乘除运算,将细粒度的运算过程合成出来变成很长的 CoT 数据做 SFT,就可以获得非常好的效果。“我依然记得当时看到那个效果的震撼。”Flood Sung表示,公司意识到 Long Context的重要性,所以率先考虑把 Context 搞长,但却对 Long-CoT 这件事情不够重视,其实主要还是考虑了成本问题。“Long Context 主要做的是长文本输入,有 Prefill 预填充,有 Mooncake 加持,成本速度可控,而 Long-CoT 是长文本输出,成本高很多,速度也要慢很多,在这种情况下,把输出搞长就没有成为一个高优选项。”
【月之暗面:一年前就验证过长思维链,因成本高先搞了长文本】2月17日上午消息,月
哀上李金锐
2025-02-25 21:20:04
0
阅读:0