07月
13日
Hugging Face 开源 30 亿参数 SmolLM3 模型,128k 上下文+12 项测试领先成小模型标杆
牛透社 2025 年 7 月 9 日消息,人工智能开源平台 Hugging Face 发布 SmolLM3 模型,该产品具备长上下文推理、多语言支持和双模式推理功能,主要应用于边缘计算设备部署。
该模型基于 Apache 2.0 协议开源,参数规模 30 亿,训练数据达 11.2 万亿 token,通过 NoPE 位置编码和 YaRN 扩展技术实现 128k token 长上下文处理,在 12 项基准测试中领先同量级竞品。技术亮点包括三阶段渐进式训练策略、锚定偏好优化及支持英、法等六种语言精准处理,研发团队公开完整训练方案和 GitHub 技术细节。