10月

11日

  • Liquid AI 发布 LFM2-8B-A1B 混合专家模型,计算负载降低至传统模型 18% 突破移动端能效瓶颈

    牛透社 2025 年 10 月 11 日消息,Liquid AI 发布 LFM2-8B-A1B 模型,该产品是 LFM2 系列首款混合专家模型(MoE),凭借创新稀疏激活机制将计算负载降低至传统密集模型的 18%(总参数 83 亿,每 token 激活 15 亿参数),攻克移动端部署的能效难题。

    该模型通过 BF16/FP8 混合精度训练方案实现训练效率提升 3 倍以上,支持 32,000 tokens 超长上下文窗口与八国语言处理,并在 AMD Ryzen AI9HX370、三星 Galaxy S24 Ultra 等设备上实现 5 倍解码吞吐量领先。开发者可通过 Hugging Face 获取开源模型权重及部署工具包,完整技术文档已采用 Apache 2.0 协议开源。

意见反馈
返回顶部