Claude Code每用户五千美元成本说法被推翻
摘要
针对Forbes文章声称Claude Code Max每月消耗5000美元计算成本的说法,本文指出该说法混淆了API零售价格与实际计算成本。通过对比OpenRouter上Qwen和Kimi等类似规模模型的定价,作者推断实际推理成本约为API价格的十分之一,重度用户的真实成本约500美元,普通用户则可盈利。五千美元的数字可能源自Cursor等第三方需支付API费用的分析,而非Anthropic自身成本。
内容框架与概述
文章首先质疑了Forbes引用的5000美元计算成本说法,指出该数字源自对API零售价格与实际计算成本的混淆。作者通过Anthropic官方API定价测算,证实重度用户若按API计价确实可能达到5000美元月费,但这不代表实际成本。
接着作者引入OpenRouter上类似规模开源模型的定价作为参考基准。Qwen 3.5 397B和Kimi K2.5等模型的输入 tokens价格仅为0.39-0.45美元,输出tokens约2.25-2.34美元,较Opus 4.6的API定价便宜约十倍。这些供应商需覆盖硬件成本并盈利,因此其定价更接近真实计算成本。
基于此对比,作者估算Claude Code重度用户的实际计算成本约500美元,Anthropic每月亏损约300美元而非4800美元。而大多数用户使用量远低于限额,个人平均API等效消费约180美元,实际成本仅18美元,使Anthropic在大多数用户身上可盈利或至少持平。
最后作者澄清,五千美元数字很可能源自Cursor的内部分析。Cursor需支付Anthropic的API费用,因此其成本确实接近该数字,但这与Anthropic自身的推理成本无关。文章指出Anthropic整体亏损源于模型训练、人力成本等巨额投入,而非推理服务本身,AI推理昂贵论调实际上有利于前沿实验室维持高溢价。
核心概念及解读
API零售价格与计算成本差异(Retail API vs Compute Cost):API定价包含利润溢价,通常为实际计算成本的十倍左右,前者面向外部客户,后者为模型运行的真实开销。
OpenRouter定价基准(OpenRouter Pricing Benchmark):通过多家供应商竞争的开源模型托管平台,其定价更接近真实推理成本,可作为估算前沿模型实际成本的参考指标。
缓存命中率(Cache Hit Rate):指请求中从缓存读取而非重新计算的比例,高缓存率可大幅降低实际推理成本和token消耗量。
推理盈利性(Inference Profitability):在token级别的服务上,Anthropic很可能已实现盈利,其整体亏损主要来自模型训练、人员薪资等固定成本。
原文信息
| 字段 | 内容 |
|---|---|
| 原文 | No, it doesnt cost Anthropic $5k per Claude Code user |
| 作者 | Martin Alderson |
| 发表日期 | 2026-03-09 |
此摘要卡片由 AI 自动生成