心智观察所:“所有人都在谈石油,但我觉得世界真正短缺的是Token”
心智观察所:“所有人都在谈石油,但我觉得世界真正短缺的是Token”
  • 2026-04-23 17:16:02
    来源:乐而忘返网

    心智观察所:“所有人都在谈石油,但我觉得世界真正短缺的是Token”

    字体:

    【文/网 心智观察所】

    一个令人不安的信号开始在AI世界蔓延。你花几十美元订阅的AI服务,背后那家公司可能正在为“算不动”而焦头烂额。

    OpenAI悄悄放弃了一款视频生成应用Sora。这款产品上线仅五天,下载量就突破百万。公司CFO罕见地公开坦承:“我们在做一些非常艰难的交易,因为没有足够算力。”

    几乎同一时间,以代码能力爆红的Claude开始频繁宕机。过去三个月,它的正常运行时间只有98.95%,而互联网服务通常承诺的是99.99%。大量企业用户被迫迁移,一位CEO说:“Anthropic一直在宕机。”

    价格也在疯涨。在云端租用英伟达最新款Blackwell芯片,一小时的价格从两个月前的2.75美元跳到4.08美元,涨幅接近一半。就连2022年发布的“老将”H100,半年内的租赁价也涨了将近40%。

    云基础设施公司Vultr的CEO J.J. Kardwell说:“我经营这家公司五年多,从来没遇到过这么严重的容量短缺。”

    这是一场产业级别的系统性危机。AI的算力泡沫被刺破了,而刺破它的不是需求下滑,恰恰相反,是需求大到供给根本追不上。

    Token:一种比石油更紧缺的新资源

    认识一下新单位:Token,中文叫词元。

    你可以把它想象成AI的“呼吸”。每一次你向AI提问,让它写代码、画图、查资料,背后都在消耗Token。任务越复杂,呼吸越急促,消耗就越大。如果你只是问“今天天气怎么样”,AI可能喘几口就行。但如果你让它帮你整理一周的工作日志、写一份竞品分析报告,它得深呼吸几百上千次。

    过去几个月,全球Token消耗量出现了一种让人眩晕的增长曲线。

    OpenAI面向企业客户的API平台,Token调用量从2025年10月的每分钟60亿,飙到了2026年3月底的每分钟150亿。五个月,翻了两倍半。

    摩根士丹利的统计更吓人。全球每周Token使用量,2026年1月还是6.4万亿,到3月已经冲到22.7万亿。三个月,三倍多。

    这场海啸的推手是谁?答案是智能体AI。

    以前的AI像个问答机器,你问它答,一锤子买卖。但2026年初,以OpenClaw为代表的智能体工具登场了。AI从“回答问题”升级到了“执行任务”:它可以自己打开文件夹,阅读文档,调用软件,填写表格,发送邮件。一个完整任务往往需要AI反复琢磨,调用七八种工具,在多个步骤之间来回切换。单次任务的算力消耗,比简单问答高出数倍甚至数十倍。

    工程师兼投资人Ben Pouladian总结得很精准:“所有人都在谈石油,但我觉得世界真正短缺的是Token。AI早就不是站在冰箱前面问菜谱的那个聊天机器人了。它在编排任务,它在变聪明。”

    需求端烈火烹油,供给端呢?

    三道墙:制造,电力,水泥

    如果你觉得“算力不够”只是芯片下单太少,那就把事情想简单了。

    第一道墙,芯片制造。

    英伟达的GPU是AI时代的发动机。但发动机不会从天上掉下来。它得在台积电的晶圆厂里,靠荷兰ASML的天价EUV光刻机,一层一层刻出纳米级的电路。

    EUV光刻机一年只产几十台,交付排队时间超过十八个月。高端GPU离不开的HBM高带宽内存,产能同样有限,扩张节奏远远跟不上需求的脚步。摩根士丹利的预测很直接:当前AI算力需求的增速,是英伟达供给增速的三倍。

    换句话说,就算英伟达把生产线拉到满,供需之间的口子还在继续撕大。

    第二道墙,电力。

    AI的尽头是电,这句话一点不夸张。

    一台装满GPU的服务器机柜,跑起来的功耗抵得上十几台家用空调同时运转。一个大型数据中心,每天吞掉的电够一座小型城市用。美国电力研究院算过一笔账:2025到2028年间,美国数据中心面临的电力缺口大约是55吉瓦。55吉瓦什么概念?将近二十座大型核电站的发电量。

    正因如此,Meta这样的科技巨头已经开始跨界投核电了。云服务商们也承认,“2026年的可用电力已经全部被预订光了”。

    第三道墙,水泥和工期。

    有芯片,有电力,还得有地方放它们。这个地方叫数据中心。一个标准数据中心的建设周期是两到三年。

    巨头们正在疯狂砸钱。2026年,微软、谷歌、Meta、亚马逊四家公司的资本开支加起来有6600亿美元,比上一年猛增60%。但钱再多也缩短不了水泥的凝固时间。有一个投资180亿美元的数据中心项目,甚至因为配套基础设施跟不上,直接被取消了。

    制造、电力、水泥,这三样东西构成了AI产业真正的物理边界。算法可以指数级优化,一行代码的事。但物理世界的扩张是线性的,快不起来。当指数级的增长曲线迎面撞上线性的供给曲线,危机就来了。

    谁掌握Token,谁制定规则

    稀缺会重新分配权力。

    云服务商CoreWeave是这轮算力荒里的典型赢家。去年底,它把GPU租赁价格上调超过20%,还要求中小客户签下至少三年的长约,以前一年就够了。即便如此,美国银行的判断依然是:它的需求将超过供给,至少持续到2029年。

    算力的定价权正在转移。光有GPU不够,谁能把芯片、电力、机柜、网络打包成“插电即用”的服务,谁就站到了产业链更有利的位置上。

    这个逻辑也能解释阿里近期的激进动作。

    2026年3月,阿里成立了一个新事业群,名字就叫Alibaba TokenHub,简称ATH。通义大模型、MaaS平台、C端应用千问、企业智能体悟空,全部塞进去,由集团CEO吴泳铭直接指挥。内部人士说,这次调整的核心逻辑就是一句话:“大家围绕Token去做。”

    吴泳铭抛出了一个野心十足的目标:未来五年,“AI加云”的收入要做到1000亿美元。这意味着云业务的年复合增长率要维持在45%左右。全球范围内,还从来没有哪个同等体量的云厂商跑出过这种速度。

    但账本的另一面同样刺眼。2025年四季度,阿里Non-GAAP净利润同比下滑67%,自由现金流从正变成负。核心电商业务的增速只剩1%,却要同时养活AI和即时零售两条烧钱战线。一位机构投资人评价得很克制:“阿里需要兼顾的战场太多了。远场电商对拼多多,近场电商对美团。主营业务没法提供无限的弹药。”

    内部的算力调配也露出了问题。春节期间,阿里集团层面的算力利用率只有五成。原因很典型:各个团队为了“有备无患”拼命多申请,结果账面上看资源充裕,真正要用的时候却调度不开。此前大模型负责人周畅转投字节跳动,据内部人士透露,压垮他的其中一根稻草就是“协调不到足够算力”。

    中美两国的算力焦虑是同步的,但底色不同。

    美国的问题主要出在物理供给上。制造产能、电力、土地,三重约束叠在一起。中国除了这些,还多了一层GPU进口受限的结构性压力。据估算,中国AI GPU的自给率从2020年的不到10%爬到了2024年的34%左右,但想达到82%,大概要等到2027年。未来两年,国产替代仍然在追赶的窗口里。

    各家出手的力度也不同。字节跳动2025年资本开支大约1600亿元,其中900亿砸向AI算力。阿里宣布未来三年投入3800亿元建设AI基础设施。腾讯相对克制,资本开支只增加了3%。市场在猜测,这是买不到卡,还是不愿意高价买。

    【纠错】【责任编辑:这叫什么事儿呢】