AI 的能力与许多专业技能是解耦的。有一定的专业素养,能帮助人更好地利用 AI,而不是说有了 AI,这些能力就变得次要。
这里需要区分“快能力”与“慢能力”。
快能力是那些 AI 可以加速培养的——比如写代码、查资料、学习新框架,借助 AI 的反馈循环明显缩短了。我去年开始大规模 vibe coding,早期写的东西几乎都是屎山,后来慢慢有了经验,这个过程中 AI 确实帮了不少忙。模型本身也有差异,之前用 Sonnet 3.5/4 很难不生成一堆垃圾,GPT-5 在这方面靠谱许多。但即便如此,代码质量的基本意识还是得自己建立,不能完全依赖 AI。
在当前阶段,“自己想要做什么”是一个远比“AI能做什么”更值得思考的问题。
现在从 AI 上获得的兴奋感开始减少了。大模型技术本身似乎已经开始碰到瓶颈,模型能力好久没有显著的提高了,很多产品形态也差不多定型了。到这个阶段,我对 AI 的探索,差不多也要进入“收口”期了。
之后我应该减少对 AI 相关理论与技术本身的追踪,把更多精力转回到数学、物理和工程的细分领域问题的思考上。
AI 工具定价的不确定性困局
就像电费——发电设施成本很高,一旦建好之后,发电成本也没那么贵。那么如何定电价呢?你不可能用煤炭成本来计算吧,那水电呢?
大模型的 token 成本本身就是一个非常难以量化的东西。现在各大 AI 厂商普遍处于亏损推广阶段,没有一个对 token 实际成本进行准确核算的标准,可能这本身就是一个专门的学问。
我现在感觉,用 AI 编程有点像在开车。
你先设定一个目标,然后这个 AI agent 就在你的配合下,把你往那个方向带。中间会不会抛锚,就看这个"车"本身靠不靠谱。
目前我的体验是,GPT-5.4 算是一辆比较稳的车。你主要要做的是握住方向盘,不用太担心它半路掉链子,或者突然把你带沟里。整个过程里,你更多是在掌控方向,而不是在救火。
今天用 Claude 做了一些偏学术的讨论,体验出乎意料地好。
我现在越来越觉得,Claude 更像是一个偏文科取向的模型。让它写代码,有时候会觉得不太跟手;但一旦进入讨论状态,尤其是理论性、概念性比较强的问题,它的表现很突出。昨天夜里和 Opus 聊了一些偏生活化的话题,关于人生、观念变化之类,甚至有些被触动。
今天换了个方向,开始聊一个我专业领域里的工程问题。一开始觉得问题不大,但聊着聊着就发现,各种方法可以不断叠加,思路能铺得很开。科研有时候就是这样——一些看起来不大的问题,可以被层层拆解、反复推演,最后撑出一整套复杂体系,但真正能落地的部分,反而未必多。