4月24日,寒武纪宣布完成了对深度求索公司最新开源模型285B DeepSeek-V4-flash和1.6T DeepSeek-V4-pro的Day0适配,实现了模型发布当日的稳定运行,适配代码已开源至GitHub社区。寒武纪通过自研的高性能融合算子库Torch-MLU-Ops,对Compressor、mHC等模块进行专项加速,并利用BangC高性能编程语言,编写了稀疏/压缩Attention、GroupGemm等热点算子的极致优化Kernel,以充分释放硬件底层性能。
在推理框架优化方面,寒武纪在vLLM中全面支持TP/PP/SP/DP/EP5D混合并行、通信计算并行、低精度量化以及PD分离部署等优化技术,通过策略优化,在满足延时约束下达到最佳的词元吞吐能力,显著提升端到端推理效率。此外,硬件特性也被深度挖掘,利用MLU访存与排序加速能力,有效加速稀疏Attention、Indexer等结构;高互联带宽与低通信延时,将Prefill和Decode两种不同工作负载场景下的通信占比降至最低,最大化分布式推理的利用率。
DeepSeek-V4模型预览版今日正式上线并同步开源,拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。用户可通过官网
网页链接或官方App与最新的DeepSeek-V4对话,探索1M超长上下文记忆的全新体验。API服务已同步更新,通过修改model_name为deepseek-v4-pro或deepseek-v4-flash即可调用。
来源:一电快讯
返回第一电动网首页 >
以上内容由AI创作,如有问题请联系admin#d1ev.com(#替换成@)沟通,AI创作内容并不代表第一电动网(www.d1ev.com)立场。
文中图片源自互联网或AI创作,如有侵权请联系邮件删除。