05月
30日
火山方舟集成 DeepSeek-R1-0528 模型,实现 30ms/token 推理延迟与 500 万 TPM 并发支持
牛透社 5 月 30 日消息,火山引擎旗下大模型服务平台火山方舟宣布完成 DeepSeek-R1-0528 最新版本集成,该平台通过自主研发的 xLLM 高性能推理框架实现 30 ms/token 的行业领先推理延迟,支持 500 万 TPM 与 3 万 RPM 的超大规模并发,并提供 Function Call、联网搜索等实用功能。
火山方舟为企业用户与开发者构建多维解决方案体系,涵盖离线批量推理、前缀缓存加速技术和动态流量配额调整功能。平台开放免注册体验通道及开发者控制台,同步推出新客专享计划,实名认证用户开通模型可享 14 天内 10 亿 tokens 用量的五折优惠。