打开APP

Anthropic疯狂扫货算力:AI行业开始拼电力和现金流了

Anthropic在5月开发者大会称一季度收入和使用量年化增长80倍,已锁定多平台算力资源,其高增长下也面临风险,AI行业竞争转向基础设施效率。

Anthropic在5月开发者大会上抛出的那句“原本按10倍增长规划,结果一季度收入和使用量年化增长了80倍”,把AI行业最硬的一层矛盾摊开了:大模型能力还在往前跑,但基础设施已经开始追不上需求。更直接的证据,是Anthropic几乎同时向SpaceX、Amazon、Google、Broadcom、微软、英伟达和Fluidstack锁算力、锁电力、锁未来几年的数据中心资源。

这家公司最新披露的口径是,run-rate收入已经超过300亿美元,而2025年底约为90亿美元;百万美元级企业客户从2月的500多家增至1000多家;Claude Code单独的run-rate收入超过25亿美元。换句话说,Anthropic不是靠讲故事撑估值,而是已经在企业软件、开发者工具和AI Agent工作流里跑出了强需求。

但强需求也带来更尖锐的问题:AI行业过去像软件,现在越来越像能源、云计算和半导体的混合体。谁能拿到更多GPU、TPU、Trainium、电力、园区和长期资本,谁才能继续迭代模型、服务客户、维持体验。AI行业没有进入轻松赚钱的阶段,反而进入了更重、更贵、更残酷的基础设施战争。

01、最强的模型不够用,能交付的算力才稀缺 

Anthropic最新一轮动作,最像一家高速扩张的云厂商,而不是传统意义上的AI实验室。

5月6日,Anthropic宣布与SpaceX达成合作,将使用SpaceX位于孟菲斯Colossus 1数据中心的全部计算能力。按照Anthropic自己的说法,这相当于一个月内新增超过300兆瓦容量,对应超过22万块英伟达GPU;公司也同步提高Claude Code和Claude API的使用上限,取消部分高峰期限制。

这条新闻很有意思。过去大模型公司发布新闻,往往围绕模型参数、榜单成绩、多模态能力、上下文长度。Anthropic这次讲的是“使用限制放开”和“算力补货”。这说明AI行业的瓶颈已经发生变化。

用户不是没有需求,企业不是不愿意付钱,开发者也不是不想用。真正的问题是:平台能不能稳定供得上。

Anthropic的算力采购清单已经非常重。4月20日,公司与Amazon扩大合作,锁定最高5GW算力,用于训练和部署Claude;其中Trainium2和Trainium3接近1GW容量将在2026年底前上线,Anthropic还承诺未来十年在AWS技术上投入超过1000亿美元。 4月6日,Anthropic又宣布与Google和Broadcom签署多GW级下一代TPU容量协议,预计2027年开始上线。公司称,Claude会同时跑在AWS Trainium、Google TPU和NVIDIA GPU上,以便按照不同工作负载匹配不同芯片。

这不是普通采购,这是资源抢占。

AI行业现在有点像新能源车早期的锂矿争夺。谁先锁矿,谁就能保证电池供给;谁先锁算力,谁就能保证模型迭代、产品体验和企业交付。过去大家以为大模型公司的核心竞争是算法团队和数据;到了2026年,竞争表已经加了几行:电力指标、芯片排产、数据中心交付、云厂商关系、融资能力、长期现金流。

这也是为什么Anthropic一句80倍增长,会让市场格外敏感。Business Insider报道,Dario Amodei在2026年Code with Claude大会上称,公司一季度收入和使用量年化增长达到80倍,远超原本10倍增长的规划,这种增长也直接压迫了公司的计算资源。

80倍这个数字不只是增长炫技,它真正指向的是供需错配。

AI应用正在从“尝鲜”变成“高频使用”。写代码、做数据分析、跑金融模型、写文档、处理客服、搭内部知识库,这些任务一旦进入真实工作流,就不是每天问几句聊天机器人,而是持续消耗Token、上下文窗口、推理算力和存储带宽。企业用得越深,平台越容易被打满。

所以,大模型行业正在从互联网逻辑切到基础设施逻辑。

互联网产品增长快,服务器可以跟着云资源扩容;大模型增长快,需要的是先进GPU、HBM、液冷、电网、土地、变压器、长期电力合约和多云调度。这里面任何一个环节跟不上,前端用户看到的就是降速、限流、排队、涨价。

Anthropic的最新动作,本质上是在给市场释放一个信号:Claude需求已经不是靠几个数据中心临时扩容就能解决,它需要把未来几年的基础设施一次性提前锁住。

这也是AI产业链最近被重新定价的原因。

英伟达、HBM、先进封装、光模块、液冷、电力设备、天然气、核电、铜、电网,都不是外围题材。AI扩张越快,这些环节越从“成本项”变成“战略资产”。大模型公司负责讲能力,资本市场开始给“能不能交付能力”定价。

02、Anthropic真正打穿的,是企业AI预算那堵墙 

Anthropic能疯狂扫货算力,底气不只来自融资,也来自企业收入已经跑出来了。

公司2月宣布完成300亿美元G轮融资,投后估值3800亿美元。当时披露的run-rate收入为140亿美元,Claude Code run-rate收入超过25亿美元,且年初以来已经翻倍;财富10强中有8家是Claude客户,年化支出超过100万美元的客户超过500家。 到4月,Anthropic又披露run-rate收入超过300亿美元,百万美元级客户超过1000家,不到两个月翻了一倍。

这些数字背后,真正值得看的是收入结构。

Anthropic不是纯消费级AI流量公司。它的强项在企业和开发者,尤其是Claude Code。这个产品很像AI时代的*个超级工作流入口:不是陪用户聊天,而是直接进入代码库、开发环境、工程协作和企业交付链条。

这类场景一旦打进去,商业意义比普通聊天更大。

消费级AI应用容易被价格、流量和模型免费策略扰动。用户今天用A,明天用B,平台要持续补贴推理成本,还要面对免费模型和开源模型的挤压。企业级AI不同。只要进入权限、审计、安全、合规、组织流程和IT预算,迁移成本会变高,付费周期会变长,客户扩张也更清晰。

Claude Code就是一个典型样本。

它从开发者个人工具切进去,然后向团队、企业、金融、法务、数据分析等更深场景扩展。Anthropic在5月又发布金融服务Agent模板,覆盖pitchbook制作、KYC筛查、月末关账等任务,并通过Claude Cowork、Claude Code插件和Claude Managed Agents交付。这不是单点工具,而是把AI嵌进金融机构日常流程。

同时,Anthropic还与Blackstone、Hellman & Friedman、Goldman Sachs组建新的企业AI服务公司,面向中型企业部署Claude,由Anthropic应用AI工程师与合作方团队一起改造企业运营。

这一步很关键。

大模型公司过去*的难题,是“能力很强,但客户不知道怎么用”。企业不是买一个聊天框就能提高效率,真正麻烦的是流程改造、数据接入、权限管理、合规审计、ROI衡量和员工培训。Anthropic现在把服务公司、私募股权、金融机构拉进来,本质上是把AI销售从“卖模型API”推进到“卖组织改造方案”。

这会改变AI公司的估值叙事。

传统SaaS卖席位,收入跟用户数和续费率挂钩。Anthropic正在走向另一套模型:卖智能体生产力,收入跟任务量、Token消耗、算力使用和业务嵌入深度挂钩。

这更像云计算早期的逻辑。AWS不是按“有多少员工登录控制台”收费,而是按计算、存储、网络和数据库资源收费。Anthropic如果能在企业里跑出类似模式,估值锚就不再只是SaaS,而会更接近AI时代的云平台入口层。

这也是它敢不断锁算力的原因。

如果企业客户只是试用,平台不敢提前签这么重的基础设施合约。真正推动Anthropic下重注的,是客户已经开始把Claude当作生产工具,而不是演示工具。

当然,这里面也有一个非常现实的变化:AI公司的收入越快,成本也越快。

传统软件的边际成本接近于零,用户越多毛利越漂亮;大模型不是这样。每一次推理、每一次长上下文调用、每一个Agent任务,都要消耗真实算力。用户使用越深,收入增长越快,算力成本也跟着涨。

所以,Anthropic的高增长不是传统互联网意义上的“躺着扩张”,而是更接近“边收钱边建电厂”。

这才是AI商业化最微妙的地方:企业需求证明了价值,但算力成本决定了利润质量。

03、AI下半场不缺需求,缺的是谁能扛住资本开支

Anthropic现在最吸引人的地方,也是它最危险的地方。

它已经证明自己不是一个只会讲安全理念的研究公司,而是正在成为企业AI核心玩家。Claude Code、金融Agent、企业AI服务公司、多云部署、监管行业客户,都让它在OpenAI之外打出了自己的阵地。

但它也提前暴露了AI行业接下来最难的一道题:需求越强,资产负债表越重。

过去互联网公司最性感的地方,是轻资产。写出一个产品,复制给全球用户,利润率一路向上。现在的大模型公司反过来了:增长越快,越需要提前购买或绑定巨量算力;客户越大,越需要本地化部署、合规数据中心、多区域推理能力;模型越强,训练和推理成本越高。

Anthropic已经不只是买云服务,而是在给未来十年的产能排班。

Amazon 5GW,Google和Broadcom 5GW,SpaceX 300兆瓦,微软和英伟达300亿美元Azure容量,Fluidstack 500亿美元美国AI基础设施投资,这些加起来,已经把Anthropic推向一家重资产基础设施公司的经营难度。公司自己也承认,增长给基础设施带来了压力,并且需要通过多平台硬件来提高韧性。

这里面有三个风险。

*个风险,是资本开支节奏可能跑在商业回报前面。

今天企业愿意试AI,因为效率提升看起来很大,管理层也不想错过技术窗口。可是到了规模部署阶段,CFO会算得更细:每年花几千万美元买AI,究竟省了多少人力?收入提升多少?风险有没有降低?如果AI Agent在一部分企业里达不到预期ROI,大模型公司的订单增速会被重新打折。

第二个风险,是云巨头既是伙伴,也是控制变量。

Amazon、Google、Microsoft既给Anthropic提供基础设施,也都有自己的AI战略。短期看,这是Anthropic快速扩张的必要条件;长期看,它很难完全摆脱云巨头。算力价格、芯片供应、数据中心区域、客户入口、渠道关系,都可能影响Anthropic的利润率和战略自由度。

第三个风险,是AI价格战会压缩行业利润。

OpenAI、Google Gemini、Meta、Mistral、xAI都在向前冲。闭源模型在抢企业客户,开源模型在压低基础能力价格,云厂商在用自研芯片降低推理成本。未来很可能出现一种看起来矛盾的局面:AI需求继续暴涨,但模型公司利润率没有同步改善。

需求增长,不等于利润增长。

这句话会成为AI下半场的核心审稿标准。

市场现在已经不再怀疑AI有没有需求。Claude Code的爆发、企业客户数量翻倍、金融机构主动入局,都说明AI正在进入真实预算。问题变成:谁能把需求转成利润?谁能用更低成本交付同等能力?谁能在算力价格、客户续费、模型迭代和资本开支之间找到平衡?

Anthropic的优势,是企业心智和安全标签。它在金融、医疗、政府、开发者等场景里更容易被大型机构接受,Claude Code又帮它抓住了开发者这个高价值入口。

Anthropic的挑战,是现金流纪律。估值越高,市场越会要求它证明自己不是一家“收入高速增长但永远缺算力”的公司。它需要的不只是更强模型,还要更好的单位经济模型:同样一次Agent任务,能不能用更少Token完成?同样一个企业客户,能不能把毛利做厚?同样一座数据中心,能不能把利用率打满?

AI行业过去拼的是“谁的模型更聪明”。接下来拼的是“谁的基础设施效率更高”。

这场比赛会把很多玩家分层。

*层,是拥有模型、客户和算力资源的公司;第二层,是有模型但缺算力、缺企业渠道的公司;第三层,是只能靠免费、开源或低价抢用户的公司。需求越大,分层越快。因为AI不是一门只要代码写得好就能赢的生意,它正在变成资金、能源、芯片、云、客户和产品的综合战争。

04、AI最残酷的变化,是从技术理想回到工业账本

Anthropic这一轮算力扫货,把AI行业带回了一个更朴素的问题:再强的模型,也要跑在真实机器上。

过去两年,市场喜欢讨论AGI、超级智能、Agent替代白领。这些话题当然重要,但2026年的AI竞争已经越来越接近工业竞争。电力、芯片、数据中心、云合同、资本开支、客户预算、毛利率,会比排行榜上的零点几分差距更决定公司命运。

Anthropic的爆发证明了一件事:企业AI不是伪需求。开发者愿意为Claude Code付费,金融机构愿意把Agent引入流程,私募和投行愿意参与企业AI服务公司,这些都说明AI已经从“创新预算”进入“生产预算”。

但Anthropic的扩张也提醒市场:AI不是无限轻资产。每一轮模型升级、每一次Agent调用、每一家企业部署,背后都有算力账、电力账和现金流账。未来的大模型公司,不能只像软件公司那样讲增长,也必须像云厂商和工业公司那样讲效率。

所以,AI下半场最值得看的,不是某家公司又发布了多强的模型,而是谁能用更低的基础设施成本,稳定服务更多高价值客户。

模型能力决定上限,算力供给决定速度,现金流决定谁能活到最后。

Anthropic已经跑在前面,但前面的路也更贵。AI行业真正的分水岭,不是有没有需求,而是谁能扛住这张越来越重的账单。

【本文由投资界合作伙伴微信公众号:美股研究社授权发布,本平台仅提供信息存储服务。】如有任何疑问题,请联系(editor@zero2ipo.com.cn)投资界处理。

相关资讯

相关企业

AI数据总览

最新资讯

热门TOP5热门机构 | VC情报局

去投资界看更多精彩内容
【声明:本页面数据来源于公开收集,未经核实,仅供展示和参考。本页面展示的数据信息不代表投资界观点,本页面数据不构成任何对于投资的建议。特别提示:投资有风险,决策请谨慎。】