admin管理员组文章数量:1444890
清华大学开源赤兔大模型推理引擎,DeepSeek 推理成本减半,吐字效率翻倍
最近 DeepSeek 火爆全网,相信不少同学都看过所谓的清华大学 DeepSeek 提示词教程(笑)。清华大学是真干实事,近日开源最新的大模型推理引擎赤兔(chitu),是一个专注于效率、灵活性和可用性的高性能大语言模型推理框架。
- 多元算力适配:不仅支持 NVIDIA 最新旗舰到旧款的多系列产品,也为国产芯片提供优化支持。
- 全场景可伸缩:从纯 CPU 部署、单 GPU 部署到大规模集群部署,赤兔引擎提供可扩展的解决方案。
- 长期稳定运行:可应用于实际生产环境,稳定性足以承载并发业务流量。
所谓人中吕布,马中赤兔,名字寓意很好,而性能也超越或者与 vLLM 相当,可谓是名副其实了。我们先看一组实测数据,感受一下赤兔推理引擎的强大。
1. A800 实测
在 A800(40GB) 集群上部署 DeepSeek-R1-671B,vLLM 与 Chitu 同时运行 DeepSeek-R1-671B,3 节点可达 vLLM 6 节点的吐字效率。
这里官方 Repo 没做说明,推测应该是每机器节点 8 卡 A800,即 240G 显存,共 3 个(720G)或者 6 个节点(1440G),不然显存无法运行 BF8 或者 BF16 的满血版本 R1。
乍一看好像很强,其实这个数据没那么明显。事实上,我们应该比的是 6 节点之间的比较,6.85 和 8.5 的差距,有提升但不大。3 节点因为运行的是 FP8,所以不好直接比较的。好在,官网也有在双机 8 卡 H20(96G)上的实测对比数据。
2. H20 实测
在批量较小的情况下,chitu 性能略强或相当于 vllm,在大批量场景下,chitu 的性能有巨大的下降,大约只有 vllm 的 67.9%。
官方表示,我们将在 Chitu 的后续版本中对大批量处理场景进行优化。
我相信大批量场景下,chitu 很快就会优化好。毕竟单 batch 性能领先情况下,大批量只是时间问题,毕竟 3 月 14 号刚开源,就敢和老牌开源推理引擎 vLLM 掰手腕。
3. 支持的模型
官方目前没有一个支持模型的列表,从官方 Repo 上看,涵盖了从 Qwen 7B 到 DeepSeek 671B,主流的开源模型基本都包含了。
- DeepSeek-R1-Distill-Qwen-14B
- DeepSeek-R1-bf16
- DeepSeek-R1
- Meta-Llama-3-8B-Instruct-original
- Mixtral-8x7B-Instruct-v0.1
- Qwen2-72B-Instruct
- Qwen2-7B-Instruct
- glm-4-9b-chat
4. 总结
具体部署可参考官方 Repo,希望赤兔越来越快,快如其名!
本文标签: 清华大学开源赤兔大模型推理引擎,DeepSeek 推理成本减半,吐字效率翻倍
版权声明:本文标题:清华大学开源赤兔大模型推理引擎,DeepSeek 推理成本减半,吐字效率翻倍 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.betaflare.com/biancheng/1748219237a2828122.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论