06月

27日

  • 腾讯开源混元 – A13B 大模型:800 亿参数支持单卡部署,同步发布两项评估数据集

    牛透社 2025 年 6 月 27 日消息,腾讯发布并开源混元 – A13B 大模型,该模型采用基于专家混合(MoE)架构,总参数规模达 800 亿,激活参数为 130 亿,在保持顶尖开源模型效果的同时,大幅降低了推理延迟与计算开销,为个人开发者和中小企业提供了更具性价比的 AI 解决方案。

    据腾讯方面介绍,混元-A13B 模型在极端条件下仅需 1 张中低端 GPU 卡即可部署,用户可通过 Github、HuggingFace 等技术社区下载使用,模型 API 也已在腾讯云官网上线。这一特性使得更多开发者能够以较低成本接入前沿 AI 技术,推动创新应用落地。

    在性能表现上,混元-A13B 模型在数学、科学和逻辑推理任务中展现出领先效果。例如,在数学推理测试中,模型能够准确完成小数比较并展现分步解析能力。此外,该模型还支持调用工具生成复杂指令响应,如出行攻略、数据文件分析等,为智能体(Agent)应用开发提供了有力支持。

    技术层面,混元-A13B 模型通过预训练中使用 20 万亿高质量网络词元语料库,提升了模型推理能力的上限,并完善了 MoE 架构的 Scaling Law 理论体系,为模型设计提供了可量化的工程化指导。同时,模型支持用户按需选择思考模式,快思考模式提供简洁高效输出,慢思考模式则涉及更深推理步骤,兼顾了效率与准确性。

    为进一步推动 AI 开源生态发展,腾讯还开源了两个新数据集。其中,ArtifactsBench 主要用于代码评估,构建了包含 1825 个任务的新基准;C3-Bench 则针对 Agent 场景模型评估,设计了 1024 条测试数据,以发现模型能力的不足。此次混元-A13B 模型的开源,是腾讯在 AI 领域持续投入的又一成果。

意见反馈
返回顶部