
总参数量1.2万亿 比R1提升1倍!曝DeepSeek R2将彻底摆脱NVIDIA:全部基于华为芯片

快科技4月29日消息,年初DeepSeek R1的问世,让美国AI圈颤三颤,甚至引发了NVIDIA的股价暴跌。如今,更强的DeepSeek R2也要来了。
据报道,市场最新爆料,R2大模型将采用更先进的混合专家模型(MoE),总参数量较前代R1提升约1倍,预计达1.2万亿(R1总参数量为6710亿),单位推理成本较GPT-4大减97.4%。
当下,中美科技战、贸易战愈演愈烈,NVIDIA H20芯片面临新一波出口管制。
在DeepSeek R2预期发布时间临近的情况下,各界高度关注中国指标性大模型在缺乏美国芯片资源下的发展动向。
据传,R2规模与ChatGPT的GPT-4 Turbo以及谷歌的Gemini 2.0 Pro相当,还将结合更智能的门控网络层(Gating Network),进而优化高负载推理任务的性能。
消息指出,R2将彻底摆脱NVIDIA芯片,训练全程均未使用NVIDIA显卡,全部基于昇腾910B(Ascend 910B)芯片集群平台,在FP16精度下,计算性能达到512 PetaFLOPS,芯片利用率高达82%,整体性能约为NVIDIA上一代A100集群的91%。
市场预期,这有望降低中国对海外高端AI芯片的依赖,且华为全新的昇腾910C芯片也开始进入大规模量产阶段。
成本方面,DeepSeek-R2的单位推理成本较OpenAI旗下的GPT-4大减97.4%。其中,R2输入每百万个字符仅需0.07美元,而输出每百万个字符仅0.27美元。
分析认为,R2若如传闻般强势,可能再次引发市场对AI基础设施需求的质疑,加上华为AI芯片的国产替代,将对NVIDIA带来更大影响。
