哈佛商学院的一项研究在今年早些时候得出了一个让企业高管不舒服的结论:使用AI工具之后,员工的工作量非但没有减少,反而持续上升。AI生产力悖论——工具越强大,工作越繁忙——正在从理论猜测变成可量化的现实。与此同时,一个科技从业者在尝试用AI代理自动化日常数字杂务后,发现自己将大量时间花在了维护AI本身上。这两个发生在不同尺度上的故事,指向同一个问题:我们对AI改变工作方式的期待,究竟在多大程度上是真实的?


效率的另一面:AI让工作更重,不是更轻

人们通常假设,AI承接的任务越多,人类需要做的就越少。但实践正在系统性地反驳这个假设。

HBR的研究指出了几个机制:AI引入了新的监督成本——你需要验证它的输出;人机协作产生了额外的沟通摩擦;而当AI将某类工作变得更快更便宜时,需求通常会随之膨胀,而非萎缩。这最后一点,恰好对应了一个已有充分历史证据的经济学规律:效率提升往往不会减少消耗总量,而是扩大需求边界。

这个逻辑在客服领域提供了一个反向的乐观叙事。互联网让企业实现了规模扩张,却把客户关系压缩进了工单和队列。作者区分了两类企业——追求规模的量产模式和提供管家式服务的奢侈品模式——核心差距在于高质量关注的边际成本。如果AI能将这一成本降至接近零,它或许真的可以为每个消费者提供过去只有高净值客户才能享有的体验。这里的效率增加,是人类体验的扩展,而非工作负担的减少。

两个方向的叙事并不矛盾:AI在某些场景下确实能替代繁琐劳动,但在更多场景下,它的引入只是把工作的形态从"做事"变成了"管理做事的机器"。维护哲学的视角提醒我们,当AI抹平摩擦时,我们可能也失去了理解系统如何运作、如何失效的机会。那些看似被消除的工作,往往携带着关于系统的隐性知识。

相关阅读: AI并未减轻工作负担——反而加剧工作强度雇了AI做杂务,结果我在维护AI互联网毁了客服,AI能否拯救它


劳动力市场的断层线:谁在被替代,谁在被招募

年轻人找工作越来越难,但原因可能不是AI。数据显示,大学生与非大学生的就业率同步下滑,青年就业困境的更合理解释是老年劳动者延迟退休挤压了入门岗位。与此同时,AI基础设施建设热潮正在拉动制造业和建筑业的招聘需求,高盛估计相关建设将带来近50万新增岗位,技工缺口已成为比白领失业更紧迫的结构性问题。

这幅图景中有一个出人意料的反叛者:IBM宣布三倍增加Z世代初级岗位招聘,理由是削减初级人才会造成未来中层管理者的断层。IBM的逻辑揭示了一个经常被忽视的维度——企业的人才管道需要时间培育,而AI替代初级岗位所节省的短期成本,可能以三到五年后的人才危机作为代价偿还。

科技招聘整体数据则更为乐观。2026年初,PM岗位反弹至三年高位,工程师岗位突破67000个。但这场复苏内部存在显著分化:AI相关岗位呈曲棍球棍式爆发,而设计岗位自2023年以来停滞不前,PM与设计师需求的比例已经逆转。这不只是招聘数据的波动,而是组织结构本身在重新定义什么样的人类判断是不可替代的。

AI时代真正被珍视的能力,正在从执行转向规划。一篇观察指出,当实现成本大幅降低后,约束从"能否构建"转变为"是否知道该构建什么"——AI团队会高效执行错误的目标,速度反而放大错误。能在写代码前清晰定义完成标准的人,将成为新的核心资产。

相关阅读: 青年就业寒冬与学会焊接的时代信号IBM逆势扩招:AI时代为何三倍招聘Z世代人才2026初产品经理招聘市场:AI岗位爆发,PM职位创三年新高开发者生产力的根本转变:从执行到规划


专家知识的隐性剥削:你的技能在为谁服务

MIT学者Danielle Li提出了一个令人不安的框架:高技能劳动者正在训练AI——他们的工作数据被编码进模型,然后这个模型使得低技能劳动者可以借助AI完成他们曾经需要专业判断才能完成的工作。知识的稀缺性被削弱了,而参与这一过程的专家们,几乎没有获得任何补偿。

这个问题比表面看起来更深。AI系统的下一阶段需要的不是工作成果,而是工作过程——程序性数据,专家如何思考、如何决策的轨迹。一篇分析将这称为"上下文收割":企业通过工具捕获专家的隐性知识,形成数据护城河,个性化程度越高,用户迁移成本越大,锁定效应越强。法律、医疗、金融等受监管行业已经开始围绕这类数据构建竞争壁垒。

MIT经济学家Daron Acemoglu的回应则是从设计端介入。他提出了"亲工人AI"的概念——扩展而非替代人类能力的AI系统。但他同时坦言,这种AI不会从市场力量或当前AI研究轨迹中自然涌现。商业模式的逻辑天然倾向于自动化而非增强,通用架构无法满足专业人士的情境化需求,AGI的宏大野心更是将注意力从增强人类体验上转移开来。亲工人AI需要刻意的政策干预和设计选择,缺一不可。

这里存在一个根本性的张力:劳动者若主动提供数据,可能削弱自身议价力;若拒绝提供,则可能被边缘化。个体理性与集体利益之间的博弈,在AI时代以一种新的形式重演。

相关阅读: 高技能劳动者正在训练AI,代价由谁来承担自动化对人类行为痕迹的渴求亲工人AI不会自然发生,企业需要主动行动


知识工作者的技能重构:写作、声音与记忆的管理

AI正在以一种具体而微妙的方式改变知识工作者的日常。以写作为例,Every团队花费了大量精力公开其AI辅助写作与编辑流程:主编用400条规则构建风格指南注入AI,让稿件在到达人工编辑前已初步成型;编辑用AI做初稿分诊,将人类精力聚焦于品质判断而非机械纠错。这套流程的核心前提是:AI生成的文字经不起深度推敲,必须由人类的审美判断来把关。

但要让AI真正写出"属于你"的文字,前期投入不可或缺。多篇文章从不同角度探讨了同一个问题:如何将潜意识中的写作习惯显性化。一种思路是将语调、结构、句式偏好、标志性手法和反模式编码为机器可执行的规范;另一种切入则追溯到1893年牛津大学印刷工为统一排版而制定的Hart’s Rules——每当新技术改变写作生产方式,就会催生新的风格规范。

AI记忆功能引发了一场小规模但颇具代表性的辩论。长期积累的上下文反而可能污染输出质量:过时的偏好、错误的归因、相互矛盾的指令,会形成"上下文腐烂"。主动管理、定期清理上下文,被认为是被低估的竞争策略——尽管这与人们对AI"越用越懂你"的直觉预期完全相反。

纳瓦尔的判断在这里提供了一个宏观坐标:AI时代真正的稀缺资源是创造力和想象力,不是执行能力。氛围编程降低了应用开发门槛,但理解技术底层原理、具备真实判断力的人仍然有不可替代的优势。问题不在于会不会用工具,而在于是否知道要构建什么。

相关阅读: Every编辑团队如何用AI写稿和编辑AI风格指南:让机器写出属于你的文字为什么我关掉了ChatGPT的记忆功能AI时代生存法则:纳瓦尔谈氛围编程与个人杠杆


教育的认知危机:当AI承接了思考本身

法国理工学院的研究者Michel Barabel提出了一个让教育者坐立不安的问题:当学生系统性地将思考任务外包给AI,大脑的神经网络致密化过程会被打断,高阶思维能力的发展基础将受到侵蚀。这不是关于作弊的道德问题,而是认知神经科学层面的警告

Kahneman双系统理论在这里被援引:AI本应外包分析性的重复任务,以释放人类的创造性思维。但如果连基础认知任务也系统性地外包,创造性思维的底层能力将随之退化。Sciences Po等机构的应对策略是要求学生提交AI使用附录,并将考核从书面作业转向口头表达,以检验真实的理解与推理能力——至少保留20%的纯人类完成活动,被认为是维护基础认知功能的门槛。

这场讨论还附带了一个公平性问题:付费订阅制的AI工具意味着经济资本可能决定认知辅助质量的高低,学习起点的不平等可能因此被放大而非缩小。

教育之外,职业发展的规则也在重写。工程领域长期存在一个激励扭曲:构建复杂系统的工程师比用最简单方案解决问题的工程师更容易获得晋升,因为复杂度更容易被描述为成就。AI时代这一问题可能加剧——当实现成本降低后,判断"什么不该构建"变得比"如何构建"更重要,但组织的晋升逻辑是否已经相应调整,仍是悬案。

与此同时,求职本身也在被AI重塑。一套基于Claude Code的面试教练工具的出现,意味着面试准备的反馈闭环可以被主动构建,而不再依赖于来自企业的稀缺反馈。这是技能发展民主化的一面,尽管它同时也在改变面试本身作为评估工具的有效性。

相关阅读: 生成式AI如何重塑现代教育为什么没有人因为简约而获得晋升用AI重塑求职面试准备的完整指南PM晋升路上最常见的四大认知陷阱


结语

AI对工作与教育的改变,始终徘徊在两种可能之间:它可以扩展人类的能力边界,也可以悄然侵蚀那些使人类判断有价值的底层能力。这不是一个选择题,而是一个设计问题——谁来设计、为谁设计、基于什么激励机制来设计。最悬而未决的问题或许是:当AI将越来越多的专家知识变成可复制的训练数据,而培养专家的教育体系又因AI的介入而被迫重新定义认知努力的边界,这个循环将在哪里找到它的平衡点?


本综述基于 hn-2026-p3 批次,覆盖时间约为 2026 年 1 月至 3 月。


此综述由 AI 自动生成