腾讯发布了Hunyuan-TurboS,比较有意思的是这是个混合Trans

又仁看科技 2025-03-11 13:25:50

腾讯发布了 Hunyuan-TurboS ,比较有意思的是这是个混合 Transformer 和 Mamba 的 MoE模型。

“传统的纯 Transformer 模型在处理长文本训练和推理时,会面临 O(N²) 复杂度和 KV-Cache 问题。Hunyuan-TurboS 结合了:

✅ Mamba 的高效长序列处理能力

✅ Transformer 强大的上下文理解能力

🔥 成果:

1.在数学、推理和对齐方面,性能超越 GPT-4o-0806、DeepSeek-V3 以及其他开源模型。

2.在知识方面(包括 MMLU-Pro)具有竞争力。

3.推理成本比我们之前的 Turbo 模型降低 1/7。”

但目前还没有公布更多的资料,再等等看。

AI生活指南 AI创造营

0 阅读:2
又仁看科技

又仁看科技

感谢大家的关注