来源:华为计算(企业公众号)
2026 年 4 月 24 日,DeepSeek V4-Pro 和 DeepSeek V4-Flash 正式发布并开源,模型上下文处理长度由原有 128K 显著扩展至 1M,实现近 10 倍容量提升。模型首次增加 KV Cache 滑窗和压缩算法,大幅减少 Attention 计算和访存开销,并通过架构创新更好地支持 Agent 与 Coding 场景。
昇腾一直同步支持 DeepSeek 系列模型,本次通过双方芯模技术紧密协同,实现昇腾超节点全系列产品支持 DeepSeek V4 系列模型。昇腾 950 通过融合 kernel 和多流并行技术降低计算开销,结合多种量化算法,实现高吞吐、低时延的推理部署;昇腾 A3 超节点系列产品全面适配,同时提供基于 A3 超节点的训练参考实现,方便用户快速微调。
基于昇腾 950 底层架构三大升级,实现极致性能表现:
· 原生精度加速:全面支持 FP8、MXFP8、MXFP4 等格式,保证精度同时内存占用降低 50%+,计算能力翻倍。
· 稀疏访存优化:针对 MoE 模型离散访存特征,提升硬件级稀疏访存能力,解决专家路由带宽瓶颈。
· Vector 与 Cube 共享 Memory:创新存储架构,消除大量片上数据搬运开销,显著降低端到端时延。
性能实测:
· DeepSeek V4-Pro:8K 输入场景,TPOT 约 20ms,单卡 Decode 吞吐 4700TPS。
· DeepSeek V4-Flash:8K 输入场景,TPOT 约 10ms,单卡 Decode 吞吐 1600TPS。
同时,昇腾联合定义超节点架构,实现低成本、高扩展、万卡级集群规模,支持 4K–1M 序列长度全范围低延迟高吞吐,并可基于 NAND SSU 实现超低成本、超大容量 KV Cache,支撑长序列应用。
Atlas 900 A3 SuperPoD 液冷超节点及 Atlas 800 A3 风冷超节点采用平等架构、全局内存统一编址,点对点互联带宽达 784GB/s,提供 32 到 384 多种规格,是国内唯一成熟规模商用的超节点产品,可满足互联网、运营商、金融等行业大模型推理的极致性能需求。
基于昇腾 A3 64 卡超节点结合大 EP 模式部署,在 vLLM 引擎下,DeepSeek V4-Flash 模型可实现单卡 Decode 吞吐 2000+TPS,性能持续提升;同时已支持 DeepSeek V4-Pro 推理部署。
为解决自定义算子开发门槛高、周期长的痛点,昇腾 CANN 推出 PyPTO 编程范式:
· 高效算子开发:提供 Python API,自动完成流水编排与内存管理,DeepSeek V4 新一代模型算子开发周期缩短至天级。
· 高性能 Kernel 自动生成:针对 Attention、Compressor、mHC 等复杂算子自动生成优化 Kernel,缩短算法验证到部署周期。
· PTO ISA 虚拟指令集跨代兼容:统一指令接口,实现一套代码多代芯片兼容,借助毕昇编译器实现更优融合。
TileLang-Ascend 针对昇腾平台深度优化,提供 AscendC 基础指令和 PTO AS 两种对接层次,相关 DeepSeek V4 模型实现已在 TileAI 开源社区发布。
目前,昇腾 A2、A3 及 950 全系列产品已完成 DeepSeek V4-Flash、DeepSeek V4-Pro 适配。昇腾将持续以极致算力与开放生态,为大模型产业提供高效支撑,与客户及开发者携手推进 AI 产业繁荣。
版权声明:本文转载自华为计算官方公众号,仅用于行业资讯交流与技术分享,不代表本公司立场,不用于任何商业用途。版权归原作者及原出处所有,如有侵权,请联系我们及时删除。
下一条培育智能原生新业态新模式2026.04.10