NoBug World
Hi, NoBug World

一天烧几亿 Token,然后呢?

AI Agent
本文为转载文章
原文发布于:2026年4月13日

我有个朋友蒋老板,最近迷上了在群里炫耀自己一天烧了几亿 Token。做了什么呢?让 Agent 写了个什么玩意儿,一会搞个本体论数据库,一会整个 Bigsty 用 Go 复刻 Pigsty。经常截了个图往群里一甩,我又烧了 XXX Token,那神情就跟在朋友圈晒跑步公里数一样。老冯看着不禁莞尔。

硅谷新运动:Tokenmaxxing

上周,Meta 内部一个叫”Claudeonomics”的排行榜被曝光了。这名字本身就很搞笑,用竞品 Anthropic 的 Claude 来命名自家排行榜,也算是一种行为艺术。

这个排行榜覆盖了 Meta 的 8.5 万名员工,30 天内总消耗超过 60 万亿 Token。排名第一的选手,一个人平均烧了 2810 亿 Token。系统还设计了一套徽章体系:从青铜到翡翠,头衔从”Cache Wizard”到”Session Immortal”,最高级的叫”Token Legend”。多少有点传奇。

怎么刷上去的呢?有员工让 AI Agent 空转好几个小时跑”研究任务”来攒量。消息泄露两天后,Meta 就把这个排行榜关了,留下一行通知:“本来是好玩的,但数据被外传了,所以先关了哈。”

Meta 不是唯一的一家。OpenAI 内部也有类似的排行榜,有人一周烧了 2100 亿 Token。硅谷给这个现象起了个名字:Tokenmaxxing,“Token 最大化”。各路大佬纷纷下场站台。

黄仁勋在 GTC 上说,未来每个工程师都应该有年度 Token 预算,大约是底薪的一半;如果一个年薪 50 万美元的工程师一年连 25 万美元的 Token 都没烧掉,他会”深感不安”。Shopify 的 CEO 更直接:不用 AI 就别干了。有匿名员工爆料,他们公司每周有 AI 使用量门槛,达不到就走人。一项新的办公室政治运动,就这么轰轰烈烈地展开了。

古德哈特永不缺席

这种事在管理学上有个经典的名字,叫古德哈特定律(Goodhart’s Law):一个指标一旦成为考核目标,它就不再是一个好指标。

Token 消耗量,作为一个中间过程指标,被拿来当作衡量”AI 使用深度”和”生产力提升”的代理变量。这件事从提出到腐败,大概用了不到一个季度。可能是管理学史上腐败速度最快的 KPI 之一。

沃顿商学院教授 Ethan Mollick 在评论这件事时,引用了一篇更老的论文:Steven Kerr 1975 年的经典《论奖励 A 行为却期望 B 结果的愚蠢》。公司想要的是生产力提升,奖励的却是 Token 消耗量。这两者之间有因果关系吗?没有人验证过。大家默认”用得多 = 用得好”,就开始搞排行榜了。

烧 Token 是一件非常容易的事。你让 Agent 去干一件不可能完成的任务,“给我写个操作系统,写不出来不要停”,开几个并行跑着,一天之内多少 Token 都能烧完。我敢说,如果比赛规则是”谁烧 Token 多谁赢”,一个实习生都能赢过 Linus Torvalds。

这跟用代码行数衡量程序员水平有什么区别?我用 npm install 装一个脚手架,几百万行代码瞬间到项目里,提交到 GitHub 上,是不是看起来特别能干?当年体面一点的软件公司都不会用代码行数考核工程师。这种事让内行看了笑掉大牙,但外行管理者偏偏就吃这套。

如果非要打个比方,这就是用油耗衡量司机水平。老司机开得省油还到得快,新手油门踩到底还走错路。

谁在鼓励你多烧?

想清楚一个问题:Tokenmaxxing 对谁最有利?

对 AI 厂商和云厂商最有利。Ramp 的数据显示,企业 Token 支出自 2025 年 1 月以来增长了 13 倍。黄仁勋鼓吹 Token 预算,本质上是在说”多买我的 GPU”。Sam Altman 畅想”全民基本算力”(Universal Basic Compute),本质上也是在说”以后每个人都要给我交电费”。

这就是卖铲子的人鼓励大家拼命挖矿

每一个 Token 都对应着真实的 GPU 算力和电力消耗。空转的 Agent 不生产任何价值,但电费是实实在在的。把 Token 烧在无意义的任务上,跟打开水龙头看水流就觉得”我在用水”一样荒谬。

当然,这种表演性消费确实在一定程度上放大了 AI 需求的泡沫信号。CNBC 专门讨论过:如果硅谷公司的 AI 用量中有相当比例是刷排行榜刷出来的,那华尔街看到的需求增长数据有多少是真的?

不过老冯的判断是:这仍然是一场实实在在的生产力革命,tokenmaxxing 虽然注了点水,但底层的价值创造是真实的。泡沫会挤掉,但趋势不会逆转。

Token 花在哪才值?

老冯手里两个 MAX 订阅,基本上每周都能烧满,也就是大概每月用 450 美元的价格撬动 22000 美元的算力。我基本不会去看自己烧了多少 Token,烧完订阅拉倒。之前倒是考虑要不要再去开俩订阅,不过最近 Codex 有翻倍活动,差不多够用了。

最近老冯用这些 Token 干了不少事儿。比如最近两天,我收录了 40 多个新的 PG 扩展,将 Pigsty 里的可用扩展数量扩充到了 503 个。同时将跑路的开源项目 MinIO 接盘了下来,过千 Star,过万下载,还拿了几小时到 HN 头条。我还把 PG 的官网翻译成中文,加上 500 个扩展,以及一些重要生态开源项目的文档都收录整理在一起,翻译成英文。

我觉得这些都是实打实的价值与产出。这个 Token 订阅费花得太值了。

这里面有个共同点:每件事都有明确的、可验证的交付物。扩展收录了多少个,数字摆在那里;文档翻译得好不好,读者一眼就能看出来;代码能不能跑,CI 说了算。影响力多大,可以看 Star、PV、UV。

反过来看那些 Tokenmaxxing 选手们在干什么呢?让 Agent”写个操作系统”,跑一晚上产出一堆垃圾代码;或者让它”做个深度研究”,空转几小时刷出一份没人会看的报告。Token 计数器转得飞快,rm -rf 也用得飞快。

这不叫使用 AI,这叫浪费能源。

带着目标在用工具,还是为了用工具而用工具?前者是生产力,后者是行为艺术。

个体 vs. 组织:一道结构性的鸿沟

道理谁都懂,但为什么 Tokenmaxxing 还是在大公司里蔚然成风?

因为 OPC(Owner’s Private Capital)自己用 AI,是按产出驱动的。翻了几篇文章、写了多少可用代码、解决了什么问题,心里清清楚楚。不需要任何代理指标,你骗不了自己。

而组织就不行了。平庸的管理者无法直接感知每个人的产出质量,必须依赖可量化的中间指标进行考核与激励。而可量化的中间指标恰恰是最容易被操纵的,这是科层制的结构性缺陷

代码行数、PR 数量、会议时长,现在轮到 Token 消耗量了,本质上都是同一出戏的不同演员。

公平地说,从 0 到 1 的阶段,公司强推 AI 使用,初衷是可以理解的。很多人确实有惰性,不推一把不会动。但一旦变成排行榜和考核指标,就必然滑向荒诞。

最终,这种管理上的无能只是过渡阶段。正如体面的软件公司很快抛弃了代码行数考核,未来衡量 AI 使用效果的方式也会回归到产出本身:你用这些 Token 带来了什么,交付了什么,节省了多少时间和成本。

至于蒋老板那个群里的截图,老冯只想说一句:

别晒油耗,晒你到哪了。