过去 4 个月,我们一直用「token 消耗」作为基准来对齐增长。按同样口径回算,最近一周日均 token 消耗已经接近 3000 亿。

最新的一个版本里,有工程师主动重写了请求结构,在不影响效果的前提下,把单次请求的 token 消耗降低了 40%+。团队开始自然关注结构效率,而不是简单增加 token。

规模上来之后,一个很直观的变化是:一些过去需要我们自己工程化绕过的问题,会在模型的新版本中被直接解决。模型厂商会针对真实负载中暴露的问题持续优化。某种意义上,产品本身也在参与模型的优化过程——这种应用层与模型层相互强化的关系,之前季逸超(Peak)在聊 Manus 时也提到过。

现在回头看,token 更像电表读数——它反映规模和成本结构,但不再适合作为我们的核心指标。
更重要的是:用户是否持续把 context 交给产品,以及我们是否能用更少的 token 完成同样的事情。

我们还在早期,还有很多可以重写的部分。
也在继续找人:增长 / 设计师 / 后端 / 前端🙋‍♂️
 
 
Back to Top