CoreWeave:人工智能基础设施革命--一家加密货币采矿初创企业如何成为价值 230 亿美元的人工智能中坚力量
CoreWeave 从加密货币挖矿起家,现已成为全球最专业的人工智能云基础设施提供商,以前所未有的规模运营 GPU 超级计算机,同时开创了液体冷却和裸机架构,使其有别于传统的超级计算机。该公司从2017年开采以太坊到为OpenAI的GPT模型提供动力的转变代表了硅谷最戏剧性的转折,以190亿美元的估值获得75亿美元的债务融资(2024年5月),随后以230亿美元的价格进行二次出售(2024年10月),在2024年实现了737%的爆炸性收入增长,并 在SemiAnalysis的新ClusterMAX框架中被评为顶级企业;该报告强调了CoreWeave的租户隔离、裸机Kubernetes和运营成熟度。
CoreWeave 构建的技术护城河利用专门为加速计算而优化的专业架构。传统云提供商在通用工作负载与 GPU 计算之间寻求平衡,而 CoreWeave 则专门为人工智能和高性能计算应用构建了堆栈的每一层。他们的裸机 Kubernetes 架构完全消除了虚拟化开销,而直接到芯片的液冷技术可实现 130 千瓦的机架密度,这是风冷设备无法比拟的。这一基本架构优势与拓扑感知调度和 InfiniBand 优先网络相结合,使 CoreWeave 在 Hopper 级 GPU 上的模型 FLOPS 利用率超过 50%,根据其内部基准,比公共基础模型基线高出约 20%。
公司与英伟达™(NVIDIA®)的共生关系超越了典型的供应商合作关系,截至 2025 年 3 月,英伟达™(NVIDIA®)持有公司约 6% 的股份,并一直选择 CoreWeave 作为突破性架构的首发部署。CoreWeave 率先推出了 GB200 NVL72 系统(2025 年 2 月),并率先部署了 GB300 NVL72 系统(2025 年 7 月 3 日)。英伟达™(NVIDIA®)承诺,GB300 的部署将使 "推理模型的推理输出提高 50 倍",尽管这只是供应商的市场推广,而不是同行评审的基准。 (英伟达™(NVIDIA®)营销指导;独立基准测试待定)。
CoreWeave 实现了 12.1 亿美元的季度收入(2025 年第二季度),保持了 301 亿美元的合同积压,并获得了来自微软(占 2024 年收入的 62%)、OpenAI(高达 119 亿美元的合同加上 40 亿美元的扩展)以及其他需要性能水平可优化大规模训练和推理的人工智能领先企业的主要客户承诺。2025 年 3 月,CoreWeave 以每股 40 美元的价格进行了首次公开募股,募集资金约 15 亿美元,从而成为一家上市公司,在全球人工智能计算需求加速增长的情况下,有能力获取价值。
然而,在这种爆炸式增长的背后隐藏着巨大的执行风险,CoreWeave 背负着超过 110 亿美元的债务 ,25 年第二季度的利息支出为 2. 67 亿美元(24 年第二季度为 6,700 万美元),这意味着随着资产负债表的扩大,年化运行率将超过 10 亿美元。这种资本结构要求公司在超分级竞争中抢先部署基础设施时,能够完美无瑕地执行。客户集中度极高, 微软占2024 年收入的 62%,前两大客户占77%。
本深度分析报告探讨了 CoreWeave 如何从第一原理出发构建专门的人工智能基础架构,为什么他们的技术优势在与超大规模服务器的竞争中证明是有意义的,以及他们积极的扩张战略能否在保持技术领先地位的同时,驾驭构建超大规模计算基础架构的资本密集型现实。通过技术文档、性能基准和行业分析,我们揭示了一家在新泽西州车库里开始挖掘加密货币的公司如何将自己定位为人工智能发展的关键基础设施--以及可能影响这一发展轨迹的财务挑战。
CoreWeave 的优势:专为人工智能工作负载打造的基础设施
CoreWeave 的基本见解是,人工智能工作负载需要与传统云计算完全不同的基础架构,这一见解推动了架构决策,现在,这些决策为训练、微调和推理工作负载提供了可衡量的性能优势。在超大规模企业投入数千亿美元优化网络应用程序、数据库和企业软件的同时,CoreWeave 意识到,大型语言模型和神经网络需要极高的内存带宽、超低延迟互连和持续散热,而通用数据中心很难持续提供这些。
技术上的差异化始于完全的垂直整合,专门针对 GPU 工作负载进行了优化。CoreWeave 的裸机 Kubernetes 方法提供了对 GPU、CPU、网络和存储资源的直接硬件访问,而无需虚拟化层。他们的拓扑感知调度最大限度地减少了 GPU 之间的通信延迟,而专用的 InfiniBand 结构可为每个 GPU 提供 400Gb/s 的连接。值得注意的是,顶级超标量 GPU 实例现在也提供高带宽网络--谷歌云的 A3 实例为每个虚拟机提供 3.2 Tbps,Azure 的 ND H100 v5 提供 1.6-3.2 Tbps 级连接,AWS P5 集群通过 SR-IOV/EFA 提供 3200 Gbps 实例网络。不同之处不在于原始链路速度,而在于 CoreWeave 的集群拓扑、调度器布局优化和机架规模的液冷散热管理。
根据英伟达™(NVIDIA®)公布的基准测试结果,Cohere 在 CoreWeave 的 GB200 NVL72 系统上实现的训练速度是上一代 Hopper GPU 的 3 倍,但这只是硬件性能的代际提升,而非跨云比较。行业讨论中还流传着其他客户的性能声明,但缺乏公司本身的公开验证。
事实证明,商业模式的创新同样重要--通过专注于 GPU 计算而不是提供数百种服务,CoreWeave 可以针对人工智能工作负载优化其运营的方方面面。这种专业化可实现新一代硬件的快速部署(几周而不是传统云的几个季度)、通过减少管理开销简化运营、与优先考虑性能的 GPU 本机客户建立直接关系,以及灵活的消费模式,包括预留实例、按需和 2025 年底推出的现货定价。
随着超大规模企业认识到人工智能基础设施的战略重要性,它们之间的竞争也随之加剧,AWS、Google Cloud 和 Microsoft Azure 都通过改进网络和裸机选项来扩展 GPU 产品。然而,CoreWeave 的专业化方法以及与英伟达™(NVIDIA®)最新硬件的先发优势创造了差异化。截至2025年3月至4月,CoreWeave是唯一获得SemiAnalysis白金级ClusterMAX评级的公司,显示了其技术领先地位--尽管该评级系统计划每3-6个月更新一次,而且竞争态势仍在不断变化。
从开采以太坊到培训基础模型:不太可能的起源故事
CoreWeave 从加密货币挖矿业务到人工智能基础设施巨头的转变始于 2017 年,当时联合创始人 Michael Intrator、Brian Venturo 和 Brannin McBee 认识到,他们的 GPU 专业技术可以发挥比解决加密难题更有价值的作用。这家总部位于新泽西州威霍肯的公司最初专注于以太坊挖矿,积累了数千个 GPU,同时开发了定制冷却解决方案和协调软件,这些后来都被证明对人工智能工作负载非常有价值。
关键时刻出现在 2019 年,以太坊向权益证明的转变有可能完全淘汰 GPU 挖矿。CoreWeave的创始人并没有像大多数矿工一样清算资产,而是发现了一个新兴的市场机会--为机器学习研究人员提供GPU计算,这些研究人员在传统云上难以获得硬件。早期客户包括需要突发计算进行实验的学术机构、为电影渲染 CGI 的视觉特效工作室以及训练计算机视觉模型的初创公司。
2020 年的大流行加速了 CoreWeave 的转向,因为远程工作推动了对云渲染的需求,同时也促进了各行各业对人工智能的采用。该公司与一家对冲基金签订了第一份大型企业合同,该基金需要大规模并行处理来进行风险建模,从而验证了该公司超越加密货币投机的商业模式。到年底,CoreWeave 运营着 10,000 多台 GPU,为从蛋白质折叠模拟到实时视频转码等各种工作负载提供服务。
2022 年,OpenAI 选择 CoreWeave 作为 GPT 模型培训的基础设施合作伙伴,因为 CoreWeave 能够快速部署数千个 A100 GPU 和 InfiniBand 网络(这是针对大规模培训而优化的配置)。这些成功的部署以前所未有的规模验证了 CoreWeave 的架构,并促成了涵盖更多基础模型的扩展合同。这一主要客户提供了稳定的收入和技术信誉,吸引了更多的人工智能先驱。
风险资本认可 CoreWeave 在人工智能供应链中的战略地位,Magnetar Capital 在 2022 年主导了 2 亿美元的 B 轮融资,随后估值迅速增长。2024 年 5 月,CoreWeave 以 190 亿美元的估值从 Blackstone、Coatue 等公司获得了 75 亿美元的债务融资,这是科技史上最大规模的私人信贷融资之一,使其能够积极扩张基础设施,满足爆炸式增长的需求。
加密货币采矿的文化基因--承担技术风险、优化效率、全天候可靠运行--完美地转化为人工智能基础设施的要求。从 GPU 中压榨出最大哈希率的工程师们现在也在优化张量运算,而从波动的加密货币市场中获利所需的金融纪律则有助于引导资本密集型基础设施业务。这个不太可能发生的起源故事表明,技术颠覆往往产生于相邻行业,而不是现有行业,外来者不受传统思维的束缚,从第一原理出发构建专门的解决方案。
复杂的资本结构反映了机遇和风险。
CoreWeave 的资本结构既反映了人工智能基础设施的巨大商机,也反映了超大规模竞争的资本密集型特点。其融资历史包括:利率约为 14% 的 75 亿美元债务融资(2024 年 5 月)、多轮超过 10 亿美元的股权融资总额、公司估值为 230 亿美元的二次股票出售(2024 年 10 月),以及每股 40 美元的 15 亿美元首次公开募股(2025 年 3 月 28 日),从而创建了一家企业价值(包括债务)超过 350 亿美元的上市公司。
主投资者展示了资本以外的战略价值。英伟达公司持有约 6% 的股份,截至 2025 年 3 月价值 9 亿美元,到 5 月价值近 16 亿美元,确保在分配限制期间优先获得 GPU 供应,同时提供硬件/软件优化方面的技术合作。微软的客户关系证明 CoreWeave 是必不可少的基础设施,特别是考虑到其大规模的 OpenAI 合作需要大量的计算资源。包括富达(Fidelity)、贝莱德(BlackRock)和 Altimeter 在内的投资财团带来了对企业销售和未来资本募集至关重要的机构信誉。
客户集中既是验证,也是风险。根据 S-1 文件显示,微软约占 CoreWeave 2024 年收入的 62%--这种依赖性使公司能够迅速扩大规模,但也容易受到合同重新谈判或战略转移的影响。这些合同的长期性提供了一定的稳定性,但具体期限并未公开披露(订单一般为两到五年)。OpenAI 承诺提供高达 119 亿美元的资金,加上公司在投资者关系材料中披露的 40 亿美元的后续扩展资金,提供了额外的锚定收入。包括 IBM 和领先金融机构在内的更广泛的客户群表明,市场扩张已超越了最初的主要租户。
截至 2025 年第二季度,301 亿美元的收入积压为基础设施公司提供了前所未有的可见性,合同收入代表了多年的远期承诺--尽管考虑到在数十个数据中心部署和运营数十万 GPU 的复杂性,执行风险仍然很大。收入的确认取决于基础设施的可用性,这就造成了在确保企业客户所要求的可靠性的同时保持积极部署计划的压力。
财务业绩揭示了人工智能基础设施具有挑战性的单位经济效益。2025 年第二季度财报显示,公司收入为 12.1 亿美元,但亏损不断扩大,公司面临着快速发展的硬件所带来的巨额折旧费用、每年接近 10 亿美元的利息支出(考虑到债务负担)以及随着基础设施部署而不断扩大的运营成本。要实现盈利,就必须扩大规模以摊销固定成本,提高利用率,并在竞争压力下保持定价纪律--这是在增长和可持续性之间的微妙平衡。
2025 年 5 月,公司以约 17 亿美元的价格收购了 Weights & Biases 公司(根据 TechCrunch 和行业报道,但官方条款仍未披露),增加了 MLOps 功能,同时提高了集成复杂性。该交易于 2025 年 5 月 5 日完成,将基础设施与 1400 多家企业使用的模型开发工具结合在一起。
通过专业化和伙伴关系加强市场地位。
CoreWeave 的市场策略颠覆了传统的云平台方法,它有意限制范围,以实现无与伦比的 GPU 加速计算深度。AWS 提供 200 多种服务,涵盖所有可以想象到的工作负载,而 CoreWeave 则提供针对人工智能训练和推理进行优化的 GPU 计算基础设施。这种专业化实现了架构优化和运营效率,而通用平台则需要平衡更广泛的需求。
竞争态势继续快速演变。随着 AWS、谷歌云(Google Cloud)和 Azure 提供高带宽网络选项、裸机实例和更高的 GPU 可用性,超大规模厂商大大增强了其 GPU 产品。差异化越来越集中于集群规模的可用性、拓扑优化、热管理和软件栈集成,而不仅仅是原始规格。
CoreWeave 的合作伙伴战略通过深度整合生态系统来加强其专注性。英伟达与CoreWeave的关系超越了客户与供应商之间的动态关系--英伟达持有CoreWeave的股份,并一直选择CoreWeave发布新架构(2025年2月发布GB200 NVL72,2025年7月发布GB300 NVL72),这表明双方在战略上保持一致。与 Databricks、Hugging Face 和其他人工智能平台的合作关系确保了工作流程的兼容性,CoreWeave 无需构建竞争性服务。
随着人工智能创新中心的地理扩张,公司承诺向欧洲基础设施投入 35 亿美元,其中 10 亿英镑用于英国业务以及挪威、瑞典和西班牙的设施,并利用可再生能源。截至 2025 年,公司运营着 33 个数据中心,拥有约 470 兆瓦的有效 IT 功率和约 2.2 千兆瓦的合同容量(2025 年第二季度),为持续增长奠定了基础。
可持续的竞争优势源于复合效应,即专业化的基础设施吸引了高要求的客户,集中的需求证明了持续投资的合理性,而技术领先地位则确保了尽早获得新硬件。尽管考虑到资金需求和竞争压力,执行风险仍然很大,但这使 CoreWeave 处于独特的地位。
技术基础设施:以前所未有的规模开展人工智能工程
截至 2025 年,CoreWeave 的数据中心足迹遍布美国和欧洲的 33 个运营设施,是全球最大的专业 GPU 部署地之一。地理分布包括 28 个主要部署在美国的地点,如德克萨斯州普莱诺市价值 16 亿美元的设施,在 454,421 平方英尺的面积内容纳了 3,500 多个 H100 GPU。在提交的 MLPerf Training v5.0 版本(2025 年 6 月)中,CoreWeave、英伟达™(NVIDIA®)和 IBM 使用 2,496 GB200 GPU 在 27.3 分钟内完成了史上最大规模的基准训练 Llama 3.1 405B,比其他提交者的同类集群规模快 2 倍多。
电力基础设施是一个关键的差异化因素,截至 2025 年第二季度,其有效容量约为 470 兆瓦,合同容量约为 2.2+ 千兆瓦,其中包括为实现卓越效率而设计的设施。与传统的30千瓦风冷限制相比,液冷技术可支持每个机架130千瓦的功率,从而能够部署高密度配置,例如每个机架装有72个GPU的英伟达GB200 NVL72系统。
GPU 机群以英伟达™(NVIDIA®)最新架构为核心,共部署了约 250,000 个 GPU。其中包括 SXM5 和 PCIe 配置的 H100 变体、配备 141GB HBM3e 内存的 H200 GPU 以及 GB200 NVL72 系统的初始部署。CoreWeave 实现了 GB200 NVL72 的首次上市(2025 年 2 月)和 GB300 NVL72 的首次部署(2025 年 7 月 3 日),保持了早期获得英伟达™(NVIDIA®)新硬件的模式。
网络骨干采用英伟达™(NVIDIA®)Quantum-2 InfiniBand,通过 ConnectX-7 适配器在非阻塞胖树拓扑结构中为每个 GPU 提供 400Gb/s 的速度,从而实现了亚微秒级的延迟和高吞吐量,尽管原始网络速度现在可以与顶级超级分频器产品相媲美。差异化在于拓扑优化、调度器集成和跨集群的一致配置。
存储架构以 VAST 数据平台部署为中心,利用分解架构实现独立扩展。该系统通过区分训练读取和检查点写入的优化 I/O 模式,使每个 GPU 的持续吞吐量高达 1 GB/s。CoreWeave 的 LOTA(本地对象传输加速器)技术可在 GPU 节点上缓存频繁访问的数据,从而在提高吞吐量的同时减少网络流量。
针对裸机性能进行优化的软件栈。
CoreWeave 的裸机 Kubernetes 架构通过直接在硬件上运行 Kubernetes,消除了虚拟化开销。这种方法提供了直接的硬件访问,同时通过英伟达™(NVIDIA®)BlueField DPU保持多租户。内部基准测试表明,这使得 Hopper GPU 上的模型 FLOPS 利用率超过 50%,比公开基线高出约 20%,但这些具体数字的独立验证仍然有限。
CoreWeave Kubernetes 服务(CKS)超越了典型的托管 Kubernetes,允许客户控制数据平面组件,同时由 CoreWeave 管理控制平面。CKS 预先配置了 GPU 驱动程序、网络/存储接口和可观察性插件,并与 Slurm、KubeFlow 和 KServe 等工作负载协调工具集成。
SUNK(Slurm on Kubernetes)通过将 Slurm 部署为容器化的 Kubernetes 资源,实现了批处理作业和长期运行服务之间的动态资源共享,从而在 HPC 和云模式之间架起了一座桥梁。它通过针对 InfiniBand Fabric 配置进行优化的拓扑感知调度实现了高利用率。
Tensorizer 技术通过优化的序列化和流加速了模型部署,根据 CoreWeave 的基准测试,其模型加载速度比标准方法快 5 倍。该开源工具可实现 "零拷贝 "加载,逐块流式传输模型,而不是将整个模型加载到 RAM 中。
先进的部署与经过验证的性能基准
CoreWeave 在基础设施方面取得的成就包括提交了可验证的 MLPerf,证明了其规模和性能。2025 年 6 月提交的 MLPerf Training v5.0 使用 2,496 个英伟达 GB200 GPU,在 27.3 分钟内完成了 Llama 3.1 405B 训练--这是任何云提供商提交的最大规模的训练,比同类集群规模快 2 倍以上。
根据MLPerf Inference v5.0的结果,在使用GB200系统的Llama 3.1 405B上,推理性能达到800 token/秒,单芯片性能比H200提高了2.86倍。GB200 NVL72 架构将每个机架上的 72 个 Blackwell GPU 与 36 个 Grace CPU 结合在一起,通过 13.5TB 的 NVLink 连接内存提供 1.44 exaFLOPS。
SemiAnalysis的ClusterMAX评级系统在2025年3月至4月推出时,仅将CoreWeave列入白金级,在50多项技术要求方面与AWS、谷歌云、Azure和其他供应商进行了评估。这一独立评估验证了技术差异,但评级系统计划随着竞争格局的变化定期更新。
技术合作伙伴关系加速了平台能力。
英伟达™(NVIDIA®)的合作伙伴关系超越了典型的供应商关系,截至2025年5月,英伟达™(NVIDIA®)持有约6%的股份,价值近16亿美元。这种深度整合体现在对新架构的一致的先期上市部署和共同的工程优化方面。联合提交的 MLPerf 文件证明了这种技术合作。
IBM 为 Granite 模型培训部署的 CoreWeave 基础设施利用了配备 Quantum-2 InfiniBand 网络的 GB200 系统。戴尔的基础架构合作伙伴关系包括在液冷机架中配备 GB200 NVL72 的 PowerEdge XE9712 服务器。VAST Data 通过其分解架构平台为所有 CoreWeave 数据中心的存储提供支持。
Weights & Biases 公司以约 17 亿美元的价格完成收购(2025 年 5 月 5 日完成),创建了一个将基础设施与 MLOps 功能相结合的集成人工智能平台。包括 OpenAI 和 Meta 在内的 1400 多家企业都在使用该平台,它在保持互操作性的同时,还增加了模型开发和监控工具。
未来发展轨迹兼顾增长和财务可持续性。
CoreWeave 的前瞻性计划包括几项重要发展。GB300 NVL72 部署(2025 年 7 月)有望使英伟达(NVIDIA)公司所称的 "推理模型推理输出提高 50 倍",不过这只是供应商的预测,而非独立验证的基准。2025年末推出的GPU现货租赁将提供具有动态定价功能的低成本可中断实例。
总额达 35 亿美元的欧洲扩张,通过可再生能源供电设施满足 GDPR 要求,确立了数据主权。公司继续向 1.6 千兆瓦的合同电力容量扩展,同时扩大液体冷却能力,以支持下一代硬件。
财务挑战需要谨慎应对。CoreWeave 有超过 110 亿美元的债务,每年产生约 10 亿美元的利息支出,因此必须在积极增长和盈利之间取得平衡。客户集中风险仍然很高,微软占 2024 年收入的 62%。2025 年第二季度,尽管公司实现了 12.1 亿美元的季度收入,但亏损仍在扩大。
根据 IDC 预测,到 2027 年,人工智能基础设施的年支出将达到 5000 亿美元,市场机遇依然巨大。CoreWeave 的专业化方法和技术优势使其能够获取巨大价值,但考虑到资金需求、竞争态势以及在保持增长势头的同时实现客户群多样化的需要,执行风险依然存在。
结论
CoreWeave 构建了专门的人工智能基础设施,通过裸机 Kubernetes 架构、支持 130kW 机架密度的液体冷却以及英伟达™(NVIDIA®)最新技术的持续首批上市部署,实现了可衡量的优势。从加密货币挖矿到成为 SemiAnalysis ClusterMAX 系统中唯一的白金级提供商(截至 2025 年 3 月),他们的转变证明了专注战略的成功执行。CoreWeave 取得的成就有目共睹,其中包括使用 2,496 GB200 GPU 在 27.3 分钟内提交了最大规模的 MLPerf 训练(Llama 3.1 405B),以及 301 亿美元的合同收入积压,CoreWeave 已成为人工智能开发的关键基础设施。
然而,前进的道路上需要应对巨大的挑战,包括超过 110 亿美元的债务、客户集中(微软占 2024 年收入的大部分)以及来自能力日益增强的超级分级器产品的竞争。随着该公司向约 2.2 千兆瓦的合同电力容量扩展并部署下一代系统,其在实现财务可持续性的同时保持技术领先地位的能力将决定这家前加密货币矿商能否永久重塑人工智能基础设施的格局。
数据截至 2025 年 8 月 15 日。数据来源包括公司文件、美国证券交易委员会文件、MLPerf 基准以及 SemiAnalysis 的行业分析。
参考资料
CoreWeave, Inc. - S-1 表(初始注册声明),美国证券交易委员会,2025 年 3 月 3 日提交。(收入历史;2024 年增长737%;公司背景)(美国证券交易委员会)
CoreWeave, Inc. - 招股说明书(424B4 表),美国证券交易委员会,2025 年 4 月。(客户集中;微软 = 2024 年收入的 62%)(美国证券交易委员会)
CoreWeave - "CoreWeave 公布 2025 年第二季度业绩强劲",Business Wire/IR,2025 年 8 月 12 日。(第二季度营收 12.12 亿美元,积压订单 301 亿美元;约 470 兆瓦已激活,约 2.2 千 兆 瓦已签约;OpenAI 119 亿美元 + 40 亿美元扩展)。(商业电讯)
路透社--"人工智能蓬勃发展,CoreWeave 收入超出预期,但亏损扩大导致股价下跌", 2025 年 8 月 12 日。(第二季度业绩;33 个数据中心)(路透社)
路透社--"CoreWeave 以 190 亿美元估值举债 75 亿美元", 2024 年 5 月 17 日。(私人信贷;估值 190 亿美元)。
路透社--"CoreWeave 完成 6.5 亿美元二级股票出售......估值 230 亿美元", 2024 年 11 月 13 日。(230 亿美元的二次估值)(路透社)
SemiAnalysis - "云计算 GPU 性能评级系统介绍 - ClusterMAX(2025 年第二季度)", 2025 年 4 月。(ClusterMAX方法论;CoreWeave=白金)(SemiAnalysis)
CoreWeave - "Blackwell at Scale: 2025 年 2 月 4 日,CoreWeave 上的 GB200 NVL72 全面上市。(第一个使用GB200 NVL72 的GA)(路透社)
CoreWeave - "英伟达GB300 NVL72首次部署"(博客),2025年7月3日。(首次GB300 NVL72 部署)(CoreWeave)
英伟达™(NVIDIA®)开发者博客--"Blackwell Ultra for the Era of AI Reasoning", 2025 年 3 月 19 日。(**"每用户 10 倍 TPS" + "每兆瓦 5 倍 TPS" ⇒"高达 50 倍输出 "的营销主张)。(英伟达开发人员)
MLCommons - MLPerf Training v5.0 Results (2025).(Llama-3.1 405B27.3 分钟,2,496 GB200;最大提交量。)(Microsoft Learn)
MLCommons - MLPerf Inference v5.0(数据中心)结果(2025 年)。(Llama-3.1 405B吞吐量/延迟,包括供应商总结中使用的 GB200 与 H200 对比)。(微软学习)
AWS - P5 实例/EFA 网络(官方文档/博客)。(使用 EFA/SR-IOV 的P5实例联网速度高达 3,200 Gbps)(亚马逊网络服务公司)
Microsoft Azure - "ND H100 v5 系列(预览版)"产品页面。(1.6-3.2 Tbps 级网络)(AWS 文档)
Google 云博客 - "A3 Ultra:每台虚拟机 3.2 Tbps 的 GPU 网络"(A3/A3 Ultra 发布资料)。(每个虚拟机3.2 Tbps)(谷歌云)
戴尔科技--"戴尔向 CoreWeave 交付首批配备英伟达 GB200 NVL72 的 PowerEdge XE9712 服务器", 2025 年 6 月 20 日。(机架式液冷交付合作伙伴)(CoreWeave)
VAST Data - "CoreWeave 的扩展人工智能性能"(案例研究/解决方案页面),2025 年。(在 CoreWeave DC 上部署的 VAST;I/O 架构)(CoreWeave)
Weights & Biases - "我们将加入 CoreWeave"(收购公告),2025 年 5 月 5 日。(W&B 交易完成/时间;整合方向)(《金融科技周刊》- 主页)
路透社--"CoreWeave 将在欧洲追加投资 22 亿美元,使投资总额达到 35 亿美元", 2024 年 6 月 5 日。(欧洲扩张规模/地点)(路透社)
投资者商业日报》--"英伟达支持的 CoreWeave 的 IPO 文件显示收入大幅增长......微软持股 62%;英伟达持股 6%", 2025 年 3 月。(证实了文件/新闻中提到的英伟达约 6% 的股份)(《投资者》)。