06月

15日

  • DeepSeek 与清华大学达成战略合作,共同研发 “自原则批判调优” 系统

    牛透社 6 月 14 日消息,深度求索(DeepSeek)宣布与清华大学达成战略合作,共同研发“自原则批判调优”(SPCT)系统,旨在推动模型在推理阶段的自我优化。

    DeepSeek 专注于通过现有资源极限优化实现低成本 AI 模型开发,其 R1 模型运营成本仅为行业巨头的 5% 至 10%,前代 V3 模型最终训练成本为 600 万美元。对比 OpenAI 斥资 5 亿美元训练的新模型,该公司以 560 万美元实现更优基准测试结果。DeepSeek 采用混合专家模型架构(MoE)整合合成数据,在数据成本与性能间取得平衡。

    面对美国芯片出口管制,DeepSeek 通过大规模单元并行计算优化算力应用,结合中国国家战略实现技术突破。行业层面,OpenAI 宣布将发布开放权重模型,Meta 推出 Llama 4 模型家族对标其技术路线。

意见反馈
返回顶部