09月

15日

  • 百度开源 210 亿参数 ERNIE-4.5 轻量模型,登顶 Hugging Face 文本生成榜单

    牛透社 2025 年 9 月 15 日消息,百度发布文心大模型 ERNIE-4.5-21B-A3B-Thinking,该产品基于专家混合架构(Mixture-of-Experts, MoE),具备 128K 超长上下文窗口与稀疏激活机制(每 token 仅激活 30 亿参数),主要应用于逻辑推理、STEM 学科及多模态复杂任务场景。

    该模型总参数量达 210 亿(Qwen3-30B 的 70%),在 BBH 数学基准和 CMATH 测试中超越同类产品。基于百度飞桨框架研发,采用 Apache 2.0 开源协议开放商业授权,显著降低 AI 应用门槛。

意见反馈
返回顶部