05月

29日

  • 蚂蚁集团百灵大模型开源 220 亿参数多模态模型 Ming-lite-omni,性能对标 GPT-4o

    牛透社 5 月 29 日消息,蚂蚁集团旗下百灵大模型团队发布多模态大模型 Ming-lite-omni 并宣布全面开源,该模型采用专家混合(MoE)架构,配备 220 亿总参数与 30 亿激活参数,成为首个在模态支持能力上可比肩 GPT-4o 的开源模型。

    2025 年以来,该团队已相继开源 Ling-lite、Ling-plus 等大语言模型及多模态模型 Ming-lite-uni 和 Ming-lite-omni 预览版。5 月中旬发布的 Ling-lite-1.5 版本性能逼近同参数规模 SOTA 水平,验证了在非高端计算平台训练 3000 亿参数级 MoE 模型的可行性。Ming-lite-omni 在多项基准测试中表现优于 100 亿参数量级顶尖模型,其权重文件与推理代码已开放,训练代码及数据集将逐步公开。

    百灵大模型负责人西亭表示,团队通过国产 GPU 集群验证了训练 GPT-4o 级模型的可行性,并坚持在语言与多模态模型中统一采用 MoE 架构。

意见反馈
返回顶部