解读:英伟达牵手CoreWeave,引爆全球AI基建革命

算力告急:全球 AI 基建的现实困局

供需失衡:从训练到推理的算力缺口爆发

在 AI 蓬勃发展的当下,算力作为其核心驱动力,正面临着前所未有的挑战。甲骨文与 OpenAI 签署的 5 年 3000 亿美元推理算力订单,宛如一颗投入湖面的巨石,激起千层浪,将 AI 算力需求的现状赤裸裸地呈现于大众眼前。这一巨额订单不仅刷新了人们对算力交易规模的认知,更凸显出全球 AI 推理算力供不应求的严峻现实。甲骨文预计 2026 年云基础设施收入将同比增长 77% 至 180 亿美元 ,后续四年收入更将持续大幅提升,这无疑是推理算力市场爆发潜力的有力证明。

与此同时,GPU 租赁现货价格的持续上涨,也从市场层面反映出 AI 算力需求的火爆。英伟达创始人黄仁勋在达沃斯世界经济论坛上指出,人工智能正引发一场 “平台级变革”,人类即将迎来史上规模最大的基础设施投资,总规模将达数万亿美元。而当下 GPU 租赁价格的走势,正是这场投资紧迫性的直观体现。

随着 AI 技术的不断演进,全球 AI 算力需求的重心正逐渐从模型训练转向规模化推理。中国信通院数据显示,未来 70% 以上算力将用于分布式推理场景。这一数据的背后,是 AI 应用从实验室走向实际生产生活的必然趋势。从智能语音助手到图像识别系统,从智能驾驶辅助到金融风险预测,AI 应用的广泛落地,使得推理算力的需求呈井喷式增长。然而,算力的供应却未能跟上这一迅猛的需求增长步伐,供需缺口日益扩大,已成为制约 AI 应用大规模落地的核心瓶颈。

从宏观数据来看,中国未来三年将投入至少 5000 亿元用于建设 AIDC,美国政府推动 “星际之门” 项目,拟在 AIInfra 投资 5000 亿美元,微软、亚马逊、谷歌、Meta2025 年将在 AI 领域投入超 3000 亿美元。这些巨额的投资计划,一方面彰显了全球对 AI 发展的坚定决心,另一方面也暗示了当前算力基建建设的紧迫性。在这场 AI 算力竞赛中,谁能率先突破算力瓶颈,谁就能在未来的科技竞争中占据先机。

基建瓶颈:硬件配套与产业链的双重制约

AI 数据中心作为算力的承载基础,其建设进度和质量直接影响着 AI 算力的供给。然而,当前 AI 数据中心建设面临着诸多底层配套短板,其中柴油发电机等备用电源的供应问题尤为突出。

高等级数据中心对电力可靠性要求极高,通常需要设置容错或冗余,以确保在市电故障时能持续稳定供电。柴油发电机因其具有快速响应和大功率输出特性,成为最主流的备用电源配置。据相关数据显示,国内高等级数据中心柴发冗余配置率 (按功率计算) 在 120% - 150% 之间,且大规模智算中心冗余配置更高 (接近 150%)。这意味着,数据中心建设对柴油发电机的需求量巨大。

然而,现实却不容乐观。在供应端,海外厂商扩产缓慢,国际龙头如康明斯、MTU、卡特等主要服务高端市场,扩产谨慎,产能优先供应海外市场,且受发动机产业复杂供应链制约,新增产能至少需至 2026 年下半年释放,导致国内订单交付压力加剧。而国内厂商虽加速布局,但在技术上还处于追赶阶段,在大功率柴发的可靠性方面存在瓶颈,短期内难以填补供需缺口。

潍柴重机中标中国移动 4.2 亿元柴油发电机订单这一案例,为我们展现了产业链上游配套能力的重要性。在此次招标中,潍柴重机凭借自身的技术实力和产品优势,成功超越外资品牌,获得了较高的市场份额。这不仅是潍柴重机自身的胜利,更是国产柴发品牌在数据中心领域的一次重大突破。它表明,在 AI 算力基建的浪潮中,国内企业正在通过技术创新和产品升级,逐步提升自身在产业链中的地位和竞争力。但同时,我们也应看到,这只是个别企业的成功,整个产业链的配套能力仍有待进一步提升。只有当产业链上下游协同发展,才能真正推动 AI 算力基建的快速推进,满足不断增长的算力需求。

20 亿破局:英伟达 ×CoreWeave 的战略核心

5 吉瓦 AI 数据中心的野心蓝图

在全球 AI 算力困局的大背景下,英伟达对 CoreWeave 的 20 亿美元投资显得尤为瞩目。这一投资并非是盲目跟风,而是有着明确的战略目标和深远的布局考量。

双方合作的核心目标是在 2030 年前建成总规模超 5 吉瓦的 AI 数据中心。这一目标的设定,不仅体现了双方对 AI 算力市场未来需求的深刻洞察,更展示了其在全球 AI 算力基础设施建设领域的雄心壮志。5 吉瓦的 AI 数据中心,意味着巨大的算力储备,将为全球 AI 应用的发展提供强大的支撑。

为了实现这一宏伟目标,双方在技术层面进行了紧密的合作。数据中心将全面搭载英伟达 Rubin AI 芯片平台、Vera CPU 及 BlueField 存储系统。Rubin AI 芯片平台作为英伟达未来的核心芯片技术,将为数据中心提供强大的计算能力,满足 AI 模型训练和推理对算力的极高要求。Vera CPU 则将进一步提升数据中心的整体性能,实现更高效的数据处理和运算。BlueField 存储系统的应用,将极大地优化数据存储和传输效率,确保数据在高速运算过程中的稳定读写,为 AI 应用提供可靠的数据支持。

除了硬件层面的深度合作,英伟达与 CoreWeave 还签订了长期采购协议,约定在 2032 年前,英伟达将采购 CoreWeave 客户未完全利用的算力容量。这一协议的签订,不仅为 CoreWeave 的数据中心运营提供了稳定的收入来源,降低了其运营风险,更重要的是,它构建了一个 “芯片供应 + 算力运营” 的闭环生态。英伟达通过投资和采购,确保了自己的芯片技术能够在 CoreWeave 的数据中心中得到充分应用,实现了从芯片研发到算力输出的全流程掌控,进一步巩固了其在 AI 产业链中的核心地位。

区别于传统云厂商的 AI 原生基建逻辑有着独特优势

与传统云厂商如亚马逊、微软、谷歌等相比,CoreWeave 在 AI 算力服务领域展现出了独特的竞争优势,其 AI 原生云服务的定位使其在市场中脱颖而出。

传统云厂商的算力布局往往是基于通用计算架构进行设计和优化的,虽然能够满足多种业务场景的需求,但在 AI 计算这一特定领域,其针对性和专业性相对不足。而 CoreWeave 则聚焦于 AI 原生云服务,从底层架构到上层软件栈,都围绕 AI 工作负载进行深度定制和优化。它采用裸金属架构和定制化软件栈,能够为 AI 模型训练和推理等任务提供极致的性能和效率,满足顶级客户对高性能计算环境的严苛要求。

以其自研的 SUNK 协调系统及 Tensorizer 优化工具为例,SUNK 协调系统能够实现对 GPU 集群的高效管理和调度,确保每一个 GPU 资源都能得到充分利用,避免资源浪费。Tensorizer 优化工具则能够针对 AI 模型的特点,对计算任务进行优化,显著提升 GPU 集群的资源利用效率。官方数据显示,CoreWeave 的 GPU 利用率已较行业平均水平高出 20%,这意味着在同等硬件投入下,CoreWeave 能为客户提供更多的有效算力,或在同等算力输出下实现更低的成本。

从英伟达的 AI 产业 “五层蛋糕” 架构来看,英伟达作为芯片供应商,处于产业链的上游,而 CoreWeave 专注于 AI 算力运营,处于产业链的中游。英伟达投资 CoreWeave,是其从芯片供应商向全球 AI 算力基础设施核心推动者转型的重要战略举措。通过与 CoreWeave 的深度合作,英伟达能够将自己的芯片技术与 CoreWeave 的 AI 原生云服务优势相结合,打破 “芯片 - 算力” 的供给割裂,实现从芯片到算力的一体化供应,从而在全球 AI 算力基础设施建设中占据主导地位。

是循环交易还是产业生态的长期布局?

市场上对于英伟达对 CoreWeave 的投资存在一些质疑声音,部分投资者担忧这是一种 “循环融资” 行为,即大型科技巨头向人工智能初创企业投入资金,而这些初创企业又用这笔资金从大型投资者那里购买云服务或硬件,导致资本在体系内空转,无法真正推动产业的发展。

针对这一争议,英伟达 CEO 黄仁勋明确表示,这种观点是 “荒谬” 的。他指出,英伟达对 CoreWeave 的投资仅占公司计划用于上线更多数据中心总支出的 2%,这表明投资并非是为了短期的资金回笼或循环交易,而是对 AI 算力基建长期价值的坚定押注。从宏观角度来看,AI 产业正处于快速发展的初期阶段,对算力基础设施的投资是推动产业持续发展的关键。英伟达通过投资 CoreWeave,能够加速 AI 数据中心的建设,满足市场对算力的迫切需求,从而推动整个 AI 产业的发展。

Evercore ISI 分析师阿米特・达里亚纳尼也认为,此次投资有望改善 CoreWeave 的资产负债表。CoreWeave 在数据中心建设过程中需要大量的资金投入,英伟达的投资将为其提供充足的资金支持,缓解其资金压力,优化其财务结构。同时,通过率先布局英伟达的 Rubin 产品,CoreWeave 有望在新兴云服务竞争对手中获得优势,抢占市场先机。这不仅有利于 CoreWeave 自身的发展,也将促进整个 AI 云服务市场的竞争和创新,推动产业的健康发展。

事实上,英伟达对 CoreWeave 的投资是其构建 AI 产业生态的重要一环。通过投资和合作,英伟达能够与 CoreWeave 形成紧密的战略联盟,共同推动 AI 技术的发展和应用。在这个过程中,双方将实现资源共享、优势互补,共同应对市场挑战,为全球 AI 产业的发展创造更大的价值。

基建革命如何重塑 AI 产业未来

从开源模型到行业场景正全面加速应用

在 AI 技术发展的进程中,开源推理模型扮演着至关重要的角色,而英伟达投资 CoreWeave 所带来的算力基建完善,无疑为开源生态的繁荣发展注入了强大动力。以黄仁勋强调的开源推理模型 DeepSeek 为例,它的出现标志着 AI 开源生态的一个重要里程碑。DeepSeek 模型以其卓越的性能和广泛的适用性,吸引了众多开发者的关注和参与,成为推动 AI 技术普及和创新的重要力量。

随着算力基建的不断完善,开源模型的应用得到了更广阔的空间。开发者们可以借助强大的算力资源,对开源模型进行快速迭代和优化,使其更好地适应不同的应用场景。同时,算力的提升也降低了 AI 开发的门槛,让更多的企业和个人能够参与到 AI 创新中来,进一步推动了开源生态的发展。

商汤科技在智慧城市、自动驾驶等领域的国际合作案例,充分展示了充足算力对 AI 模型从实验室走向实际行业场景的巨大赋能作用。在智慧城市建设中,商汤科技利用其先进的 AI 算法和强大的算力支持,实现了城市交通的智能优化、公共安全的精准监控以及城市资源的高效管理。通过对海量城市数据的实时分析和处理,AI 模型能够及时发现城市运行中的问题,并提供有效的解决方案,为城市的可持续发展提供了有力支撑。

在自动驾驶领域,商汤科技与多家汽车制造商合作,将 AI 技术应用于车辆的智能驾驶辅助系统中。通过对车辆传感器数据的快速处理和分析,AI 模型能够实时感知周围环境,为驾驶员提供准确的驾驶决策建议,大大提高了驾驶的安全性和舒适性。这些成功案例表明,充足的算力能够让 AI 模型在医疗、制造、金融等更多实际行业场景中实现规模化应用,为各行业的数字化转型和创新发展提供强大动力。

服务器、存储与光模块的增长红利

算力基建的扩张,如同推倒了多米诺骨牌,引发了整个产业链的连锁反应,带来了巨大的增长红利。TrendForce 的数据为我们揭示了这一趋势的冰山一角:预计到 2026 年,全球 AI 服务器出货量将增长 28%,存储器产业产值将达到 5516 亿美元。这一数据背后,是 AI 算力需求的持续增长,以及产业链上下游企业为满足这一需求所做出的努力。

在服务器领域,随着 AI 应用的不断拓展,对服务器性能的要求也越来越高。为了满足这一需求,服务器制造商不断加大研发投入,推出了一系列针对 AI 计算的高性能服务器产品。工业富联作为全球 AI 服务器市占率约 35%、国内市场占据高达 50% 的核心代工厂商,凭借其与英伟达、微软等的紧密合作,在 AI 服务器领域占据了主导地位。其生产的英伟达 GB300 服务器,订单已排到 2026 年,充分显示了市场对高性能 AI 服务器的强劲需求。

存储器产业同样受益于算力基建的扩张。随着 AI 模型规模的不断增大,对数据存储和读取速度的要求也越来越高。为了满足这一需求,存储器厂商不断创新技术,推出了高速、大容量的存储产品。三星、SK 海力士等国际巨头在 DRAM 和 NAND 闪存领域的持续投入,推动了存储器产业的快速发展。而国内企业如长江存储、长鑫存储等,也在不断追赶,通过技术创新和产能扩张,逐渐在全球存储器市场中占据一席之地。

光模块、高速铜缆等关键配套领域,在算力基建中也发挥着不可或缺的作用。它们如同信息高速公路上的桥梁和纽带,负责数据的高速传输。在 AI 基建 2.0 时代,“算力 - 存力 - 运力” 一体化的需求,对光模块和高速铜缆的性能提出了更高的要求。中际旭创作为光模块领域的龙头企业,通过不断研发和创新,推出了一系列高速率、低功耗的光模块产品,满足了 AI 数据中心对高速数据传输的需求。水晶光电等企业也在不断探索新的技术和材料,致力于提高光模块和高速铜缆的性能和可靠性。

与 AI 基建 1.0 时代单纯堆砌 GPU 不同,2.0 时代更注重算力、存力和运力的协同发展。这一转变,不仅对硬件设备提出了更高的要求,也为产业链上下游企业带来了新的机遇和挑战。在这个过程中,企业需要不断加强技术创新和产品升级,提高自身的核心竞争力,才能在激烈的市场竞争中立于不败之地。

AI 基建不是 “堆硬件”,而是就业与生态的重构

全球数万亿美元的 AI 基建投资,绝不仅仅是一场简单的技术革命,其背后蕴含着更为深远的意义 —— 它正在重塑全球的就业结构与产业生态。黄仁勋曾论断 “水管工、电工拿六位数薪水”,这看似夸张的表述,实则揭示了 AI 基建建设过程中一个重要的现实:大量蓝领技术岗位正被催生。

在 AI 数据中心的建设过程中,从场地规划、基础建设到设备安装、调试维护,每一个环节都需要专业的技术人员。这些工作不仅需要具备一定的技术知识,还需要丰富的实践经验。水管工、电工等蓝领技术人员,在数据中心的电力供应、冷却系统维护等方面发挥着关键作用。他们的工作,虽然看似平凡,但却是 AI 数据中心稳定运行的重要保障。随着 AI 基建的不断推进,对这些蓝领技术人员的需求也在不断增加,他们的薪资待遇也随之水涨船高。

对于新兴市场国家来说,AI 基建更是实现技术赶超的关键路径。在传统科技领域,新兴市场国家往往处于追赶地位,与发达国家存在较大差距。然而,AI 技术的兴起,为新兴市场国家提供了一个弯道超车的机会。通过加大对 AI 基建的投入,新兴市场国家可以构建自主可控的 AI 算力基础设施,吸引全球 AI 人才和企业的入驻,推动本国 AI 产业的快速发展。在这个过程中,新兴市场国家可以培养自己的 AI 技术人才,建立完善的 AI 产业生态,实现从技术引进到技术创新的转变。

以印度为例,尽管在芯片产业等传统科技领域起步较晚,但印度近年来积极布局 AI 基建,吸引了众多国际 AI 企业的投资和合作。通过与国际企业的合作,印度不仅获得了先进的 AI 技术和经验,还培养了大量本土 AI 人才,推动了本国 AI 产业的快速发展。这表明,AI 基建为新兴市场国家提供了一个打破技术壁垒、实现技术赶超的重要机遇。

未来方向:AI 基建 2.0 时代的竞争与机遇

展望未来,AI 基建将迈入 “一体化、绿色化、区域化” 的 2.0 阶段,这一阶段将带来全新的竞争格局与发展机遇。在全球算力竞赛的大舞台上,中美两国作为科技强国,展现出了截然不同的布局思路和战略重点。

美国凭借其强大的科技实力和丰富的资源,在 AI 基建领域一直处于领先地位。英伟达、甲骨文等科技巨头纷纷加大投资,推动 AI 数据中心的建设和升级。而中国则在绿色算力领域展现出了独特的优势和潜力。随着 “双碳” 目标的提出,中国积极探索氢能备用电源、光伏直驱冷却等绿色技术在数据中心的应用,致力于打造低碳、环保的数据中心。中国移动呼和浩特数据中心通过采用绿电、制冷、能耗管理等措施,实现了绿电使用比例达 80%,每年节水 9.5 万吨,节省水费 86 万元 ,为绿色算力的发展提供了成功范例。

在绿色算力发展的浪潮中,国内企业迎来了前所未有的机遇。华为、腾讯等科技企业纷纷加大在绿色算力领域的研发投入,推出了一系列绿色数据中心解决方案。同时,国内企业还积极参与国际合作,与全球科技企业共同推动绿色算力技术的创新和应用。这不仅有助于提升国内企业在全球科技竞争中的地位,也为全球绿色算力的发展做出了重要贡献。

开源生态与自主芯片研发的重要性愈发凸显。开源生态的发展,能够促进全球 AI 技术的共享与创新,推动 AI 技术的快速发展。而自主芯片研发则是保障国家信息安全和产业自主可控的关键。国内企业如华为海思、寒武纪等,在自主芯片研发领域取得了显著成果,为我国 AI 产业的发展提供了有力支撑。

对于科技从业者与投资者而言,把握 AI 基建 2.0 时代的发展趋势至关重要。科技从业者应不断提升自己的技术能力,关注绿色算力、开源生态等领域的发展,积极参与到 AI 基建的建设中来。投资者则应关注相关领域的投资机会,加大对绿色算力、自主芯片等领域的投资,分享 AI 基建发展带来的红利。