腾讯发布了 Hunyuan-TurboS ,比较有意思的是这是个混合 Transformer 和 Mamba 的 MoE模型。
“传统的纯 Transformer 模型在处理长文本训练和推理时,会面临 O(N²) 复杂度和 KV-Cache 问题。Hunyuan-TurboS 结合了:
✅ Mamba 的高效长序列处理能力
✅ Transformer 强大的上下文理解能力
🔥 成果:
1.在数学、推理和对齐方面,性能超越 GPT-4o-0806、DeepSeek-V3 以及其他开源模型。
2.在知识方面(包括 MMLU-Pro)具有竞争力。
3.推理成本比我们之前的 Turbo 模型降低 1/7。”
但目前还没有公布更多的资料,再等等看。
AI生活指南 AI创造营