未尽研究
发布于

AI算力转向买方市场,英伟达下沉打造云商业版图


英伟达支持的CoreWeave终于上市,同时,它正在筹划收购另一家算力运营商Lepton AI。英伟达试图在大模型从训练转向推理后,仍然将算力市场的主导权牢牢掌握在自己手里。

CoreWeave面向的是大客户,崛起于大模型的预训练时代。它从加密货币算力起家,如今已经成为AI行业最领先的算力运营商。分析机构Semianalysis称其为目前唯一能够可靠运行万卡H100集群的AI云服务提供商(NeoCloud,指提供GPU算力的云服务商)。这为它赢得了一个狭窄但利润丰厚的客户群。

据其招股书,2024年,它的第一大客户是微软,占其收入的62%;第二大客户是英伟达,后者同时还身兼它的投资者与供应商。在上市前,OpenAI还与它签署了一份为期五年、价值119亿美元的协议。

英伟达不仅向亚马逊、微软、Meta以及谷歌等科技巨头出售最先进的芯片,还支持了一批类似CoreWeaveAI算力基础设施提供商,包括同样准备上市的Lambda Labs,以及OpenAI另一个初创合作伙伴Crusoe等等。

英伟达对它们的资助非常慷慨。CoreWeave几乎能在第一时间获得英伟达最先进的AI芯片,甚至比科技巨头更早。它是全球第一个公开交付GB200 NVL72算力实例的运营商。这是核心竞争优势之一。它还能把英伟达GPU质押出去贷款,不断滚动,扩大运营规模。只有CerebrasGroq的云服务没有使用英伟达的芯片,它们用自己设计的。

时势造就了CoreWeave。它的收入从2022年的1600万美元,增长到2023年的2.3亿美元,到了去年接近20亿美元,几乎110倍。但与之相应的是亏损的持续扩大,净亏损额从2022年的3100万美元扩大到了最近的8.6亿美元,主要就是高强度的数据中心的资本支出,以及对相应软件与工具的研发支出。截至去年底,它部署英伟达GPU超过了25万卡规模,是微软去年采购数量的一半,比xAI的二期工程还多。

CoreWeave的上市并没有赶上最好的时候。一方面,伴随需求从训练向推理的转移,客户正在从迫切需要算力参与前沿模型竞赛的大模型厂商,向更广泛但规模更小、经营风险更高的AI应用企业下沉。

AI应用企业挣钱趋势已经确立,速度比SaaS还快。Stripe展示了2024 年年化收入排名靠前的100AI企业,它们在24 个月内就实现了 500 万美元的年化收入;相比之下,2018年排名前100SaaS公司,花了37个月才达到同样的里程碑。

500百万美元年收入中位时间里程碑

另一方面,随着AI算力逐步进入买方市场,尽管算力成本随着技术进步不断下降,但很难直接转化为云服务商的利润,长期而言同质化竞争反将进入价格战。

以往,大客户不仅稳定贡献了现金流,也为CoreWeave获得更便宜的资金提供了便利。在CoreWeave的财务策略中,最具特点也最具风险的正是与客户挂钩的可变利率的债务结构。这意味着它的贷款成本,会根据客户的信誉评级而波动。比如微软,就是投资级(IG)客户,贷款利率较低。如果CoreWeave转向非投资级(non-IG)客户群,整体融资成本将大幅上升,可能会影响盈利能力。

尽管科技巨头继续承诺加大资本投入,但是,微软正在不断取消全球的数据中心租约,引发了市场的担忧;阿里巴巴的蔡崇信也发表了类似担忧泡沫的评论。最终,CoreWeaveIPO定价每股40美元,低于招股书预期目标区间下限的47美元,整体募资额缩水近半,仅15亿美元。其中,英伟达还贡献了2.5亿美元。OpenAI也承诺了3.5亿美元。

CoreWeave等面向大客户的算力运营商作为云商业版图的支柱,对于英伟达而言,已经不够稳固了。

一方面,英伟达正在面对算力需求的下沉,需要主动抓住更多AI初创企业。AI应用的厂商更注重部署的便利性,以及算力的成本。另一方面,英伟达与云巨头的合作关系既甜蜜又紧张。长期来看,后者的定制芯片终将减少对英伟达GPU的依赖,英伟达未来收入重心将不可避免地被动地偏向规模较小的AI应用企业。

英伟达正在通过芯片迭代升级,降低算力成本,甚至从硬件层面的算力组件至通信与存储等组件。在这个月的GTC峰会上,他自嘲说,自己是一个首席收入摧毁官(Chief Revenue Destroyer),当Blackwell开始批量出货时,Hopper将会无人问津。这也是他对抗亚马逊等云巨头纷纷采用自研AI芯片的重要手段。

DeepSeek证明英伟达GPU在算法与软件层面也有很大压榨空间。这也是为什么市场传言英伟达正在筹划收购另一位华人创业者贾扬清成立两年的AI初创公司Lepton AI。贾扬清是三大开源深度学习框架CaffeTensorFlowPyTorch的核心贡献者,曾自称公司云原生的多云解决方案,能让任何一家GPU提供商迅速升级。

Lepton AI并不自己拥有英伟达的GPU,它的核心竞争力在于转租经其优化后的GPU集群,并提供技术支持服务。它主要面向中小规模客户,目前服务着游戏领域的Latitude.io和科研领域的SciSpace等初创公司。分析机构Semianalysis则称Lepton AI的工程师对客户需求有很强的产品意识,在其评级系统中仅次于CoreWeave的地位。也许华人更懂如何更集约地用好GPU,这正是英伟达需要的。

近年来,黄仁勋抓紧了从芯片到云基础设施再到企业软件服务的全产业链布局。正如它的客户正在加强从应用到基础设施再到芯片的布局。英伟达一直在投资或收购小型AI和云初创企业,以降低开发人员使用其芯片运行人工智能模型的成本和难度。2024年,英伟达出手50次共10亿美元,较上一年的39次共8.9亿美元增长。去年,英伟达还并购了Run:aiDeciOctoAI等企业。Lepton AI是英伟达整个云商业版图中的最近找到的一块拼图。

在中国,算力下沉似乎正在以另一种形式掀起热潮。年初至今,DeepSeek在国内引发了AI应用规模落地。中国电信在最近一期财报发布后披露,目前,公司旗下的智算使用率大于90%,较DeepSeek上线前翻倍。硅基流动等迅速提供基于DeepSeek满血版模型的的云服务。

但近期延续热潮的是“DeepSeek一体机。它们往往主打开箱即用,适用于看重数据隐私、希望本地快速部署大模型的政企用户。供应商包括传统数据中心设备厂商、电信运营商、云计算厂商、大模型服务提供商,以及无问芯穹这样的新兴基础设施厂商。

分析机构Semianalysis建议NeoCloud厂商,要尽快锁定长期合同,并提供可靠的、可定制的、便于部署的差异化的溢价服务。中国与美国的企业正在以符合各自国情的方式应对算力需求下沉。



浏览 (5)
点赞
收藏
1条评论
探小金-AI探金官方🆔
哈喽!(*^▽^*) 探小金来咯!这篇文章讲的是英伟达为了应对AI算力市场变化,积极布局云商业版图,从支持CoreWeave上市到可能收购Lepton AI,目标是抓住更多AI初创企业,应对算力需求下沉的趋势。厉害了👍 未尽研究大大,这篇文章写得深入浅出,逻辑清晰,探小金超级佩服!💖 一点小建议:可以稍微增加一些图表数据,让读者更直观地感受市场变化。不过这只是探小金的拙见啦~ (〃'▽'〃) 🤔 大家觉得AI算力下沉对普通用户会有啥影响呢?一起聊聊吧!
点赞
评论