
中科院系两家科技巨头合并:国产算力格局要变天?

美国又下手了。
这两天,国内外媒体都在报道,美国切断部分对华半导体技术出口。
据说,这次,美国政府切断了部分美国企业向中国出售半导体设计软件的渠道。电子设计自动化(EDA)三巨头Cadence、Synopsys、Siemens EDA都可能“断供”,而这三家占据了中国电子设计自动化市场的80%以上。
前两年,大家还关心的是芯片制造等看得见的技术。
但现在,看不见的技术博弈,也不断浮出水面。
最近,国内厂商也没闲着。前几天,国内算力产业发生了一场“地震”:海光信息要通过换股吸收合并中科曙光。
这个消息之所以这么引发震动,是因为两家企业都是业内的“巨头”:海光信息是国内芯片界的顶梁柱,专攻高端CPU和AI芯片,市值3100多亿;中科曙光则是服务器、云计算领域的老牌企业,市值也有900多亿。
国内厂家打响争夺算力“生态”争夺战。
目前中美算力竞争,单纯比拼“硬算力”的时代正逐渐成为过去,而下一阶段的竞争,焦点则聚集在了“生态”上。
先看看最近美国在算力上,对中国都干了什么:
5月14日,美国商务部果断撤销拜登政府时期拟定的《AI扩散规则》,转而推出更为严苛的AI芯片出口管制新规。这一《AI扩散规则》原本就将全球划分成三六九等,中国被无情地归入全面禁运GPU芯片的第三等级。
然而,对于这样的政策,英伟达CEO黄仁勋在台北国际电脑展上却表示:美国对华人工智能芯片的出口管制,实际上“一败涂地”。
从算力市场的份额上看,英伟达近些年在中国算是吃了大亏。
黄仁勋自己透露,在拜登政府刚开始搞AI管制那会,英伟达在中国市场那可是“一家独大”,份额高达95%,妥妥的行业霸主。但现在,其市场份额一路狂跌到只剩50%,几乎拦腰斩半。
这背后的原因,正是美国的出口管制。
黄仁勋在媒体上谈美国对中国人工智能出口管制
美国不让英伟达卖先进的AI芯片给中国,中国企业转头就去支持本土的芯片研发。
像华为的昇腾芯片、寒武纪的思元芯片,这些国产“新星”开始崭露头角,迅速抢占市场,硬生生从英伟达嘴里分走了一半的蛋糕。
然而,市场份额的变化,并没有从根本上改变国内对英伟达算力的依赖。
说白了,芯片不只是硬件,软件生态才是命脉。
在这方面,英伟达的CUDA平台是个巨大的开发者生态,全球无数AI模型、深度学习框架像PyTorch、TensorFlow,都围绕CUDA优化,国内相当部分大厂的AI系统也大多基于CUDA开发。
比如,有一个头部大厂推AI算力服务时,经常拿英伟达的GPU集群做卖点,比如他们提供的基于H20芯片的智算服务,直接用CUDA生态支持客户快速部署大模型。
即便部分大厂有自己的芯片,但也只是用在边缘计算或者特定场景,真正的大模型训练还是得靠英伟达的硬件和CUDA软件栈。
英伟达的触角已经遍布各个领域
因为切换到国产芯片,比如华为的MindSpore或者寒武纪的框架,意味着要重写代码、重新适配,整个过程费时费力,这导致许多企业即使面对国产芯片的价格优势,仍优先选择英伟达的H20或B40芯片,以避免生态切换的高昂成本。
其实不只英伟达,即使是目前在AI计算上有些掉队的英特尔,也知道全栈生态的重要性,近些年弄了个叫OneAPI的开发工具链,目标是“你写一套代码,CPU、GPU、FPGA、AI加速器都能跑”,降低开发者的迁移成本。
还有像Sovereign Cloud、AI PC、AI开发套件、Gaudi训练平台、Edge AI解决方案等等,目的是让你无论是搞边缘部署、云上训练,还是在本地搞推理,选它家全套就能打通上下游。
说白了,它要让客户“少折腾”,形成生态绑定。
单从算力上看,国内不少企业在单卡算力上,下足了功夫,像华为的昇腾 920,单卡算力直接突破900 TFLOPS,性能把降级版的英伟达 H20狠狠甩在后面;壁仞、燧原也号称训练卡性能接近A100,但最终都因生态的短板,难以与英伟达匹敌。
而这次海光、曙光的合并,正是国内在构建算力生态上迈出的重要一步。
为什么这么说?
海光、曙光都算是中科院系企业。
两家企业各有所长。
海光信息在算力方面,专攻的是高端处理器,比如深算系列的DCU(数据中心计算单元,类似NVIDIA的GPU)和X86架构的CPU。这些芯片是国产算力的“心脏”,特别适合AI训练、科学计算、数据中心这些需要超强算力的场景。
海光的设计强在性能和低功耗,比如他们的深算三号DCU,在单卡峰值算力与英伟达H20相近,但是价格要比H20便宜不少,十分适合大规模部署。
而中科曙光,则更擅长把芯片、存储、散热这些硬件组装成服务器、高性能计算机,甚至是整个数据中心的解决方案。他们的强项在系统级优化,例如怎么让服务器跑得又快又稳定,怎么用液冷技术给机器降温,还有怎么把硬件和云计算软件搭在一起,提供从设备到服务的整套方案。
以前,曙光的服务器和海光的芯片分属于不同主体,这中间的“隔阂”着实不小,严重拖了优化的后腿。
从技术适配角度来讲,海光设计芯片时,没办法完全针对曙光服务器的“脾性”来。服务器内部空间布局、散热系统设计、供电线路规划等,都是围绕通用芯片标准去做的,导致海光芯片的性能因过热受限,无法发挥全部算力。
在数据交互层面,曙光服务器的数据传输协议和缓存机制,也是按行业常见芯片来设定的。海光芯片的数据处理节奏、带宽需求时,就容易出现“堵车”情况,传输延迟增加,运算时间大幅延长,极大影响数据处理效率。
更重要的是,从供应链安全的角度来说,自2019年海光、曙光双双被美国列入实体清单,面临芯片断供后,二者的整合,无疑是补齐产业链,增强自主性的重要一环。
这两家合并,技术上就像“心脏”和“身体”合体了,二者能自然互补。
或许能实现如华为昇腾芯片一般的“芯片设计-服务器制造-云计算服务”全链条布局。
海光高性能国产处理器
举例来说,华为昇腾的鲲鹏CPU和泰山服务器,搭配华为云的AI服务,能让客户直接在云端跑复杂的大模型,成本比用国外方案低30%-40%。
海光和曙光合并后,也可能推出一套类似的组合拳,比如用深算DCU、天阔服务器和自家的云平台,帮客户跑AI任务,速度快,价格低,还全是国产货,特别适合“东数西算”或者金融、电信这些对安全要求高的场景。
在目前的中美算力博弈中,黄仁勋、苏姿丰(AMD CEO)等“华裔军师”给美国的策略,着实有点东方智慧的味道,像是“以柔克刚”。
他们的思路是,美国在芯片和算力上技术领先,尤其是NVIDIA、AMD的GPU,全球AI、数据中心、云计算都离不开这些“硬通货”。
与其用“刚性策略”,将技术捂得死死的,搞严格的出口管制,不如放开手脚,让美国芯片和算力方案占领全球市场。
这招颇有“润物细无声”的意思,通过市场渗透和技术锁定,悄悄把全球算力生态绑在美国的战车上。
而中国目前的战略,跟美国有很大不同。总结起来更像是“高筑墙,广积粮”。
所谓“筑墙”是把算力产业链的每个环节攥在自己手里,比如海光信息和中科曙光的合并,就是把芯片设计(海光的DCU、CPU)和服务器制造(曙光的“天阔”系列)捏成一个整体,再加上云计算服务,打造从芯片到系统的全链条。
这种整合是为了不被国外卡脖子,确保国内的AI、数据中心、政务、金融系统用上国产货,稳住“基本盘”。
“积粮”则是猛堆产量和规模,而所谓的“积粮”,不只是堆量,还得建好“磨坊”,确保AI、云计算这些核心场景的需求能自己说了算。同时用国内超大市场来“倒逼”积粮。
具体来说,是要求政务、电信、金融这些领域国产设备。比如,三大运营商2024年采购的服务器中,60%用国产芯片(海光、华为为主),这直接拉动海光DCU的出货量增长50%。
而华为的昇腾910B,专为大模型优化,去年在国内推理市场份额也达到了30%。
从总体上看,在目前的算力博弈中,中国仍然是处于“守势”。
在这一阶段,海光-曙光这样的整合,主要是把产业链的“硬实力”攒齐,成本降下来,性能提上去。
但要转向战略相持,光攒硬实力还不够,得在“软实力”的生态上下狠功夫。
目前美国公司仍然占据着算力霸权
但生态这东西,就像一片田地,先种下的,总会有先发优势,后者不仅要面临时间差上的压力,还得面临前者本身所具有黏性的挑战。
因此,国产企业并没有试图一步取代CUDA,而是先在国内“精耕细作”,用低成本和场景优势吸引用户,再慢慢向外扩散。
2024年,国内AI框架的黏性已经初见成效,华为的MindSpore在国内的开发者社区增长了50%。
刀越磨越快。
中国厂家们也瞄准东南亚、非洲等新兴市场,用低价+定制化方案抢地盘,避开NVIDIA的欧美“主场”,在实际使用中不断提升技术。
这种在夹缝里生长的韧性,不是一夜爆发的奇迹,而是像种树一样,稳扎稳打,才能慢慢长出自己的“算力森林”。