09月
12日
蚂蚁集团联合中国人民大学发布LLaDA-MoE大模型 完成20万亿tokens训练并即将开源
牛透社 2025 年 9 月 12 日消息,蚂蚁集团与中国人民大学联合发布基于原生 MoE(专家混合)架构的扩散语言模型 LLaDA – MoE。
该模型在 20 万亿 tokens 量级数据集上完成从零训练,验证了工业级大规模训练框架的扩展性与稳定性优势,代码库将于近期开源。MoE 架构通过动态激活神经网络子模块实现高效计算,蚂蚁集团为金融科技领域头部企业,中国人民大学为人工智能研究领域的核心学术机构。