为什么“会不会用AI”是个伪命题,以及如何从“齿轮”升级为“系统指挥官”
过去这两周,几个非常密集的信号让我意识到:如果你还在纠结“会不会用 AI”或者“AI会不会取代我”,可能真的搞错了竞争的维度。
真正的危机,不是你不会用工具,而是你在 AI 时代,依然把自己定位成一个“执行者”。
在探讨个体的应对策略之前,我想先跟你分享近期正在发生的几个宏大叙事与微观现实。它们拼凑出的未来图景,坦白说,让我感到了一丝紧迫。
范式迁移:正在发生的三个强信号

其一,最核心的冲击来自资本的算账逻辑。 如 Blaise Agüera y Arcas 所言,AGI 时代的到来不亚于一场将人类从宇宙中心移出的“哥白尼革命”[1],AI 正在从“被动工具”演化为具备集体智能的协作生态。在这场演化中,正如《AI文明史》所推演的,人类的智能并不独特[2]。当 AI 生产智能的效率达到人类当量的五千到六千倍时,经济学上的账已经算得非常清楚了——只要 100 倍的利润就能让资本家铤而走险,面对数千倍的效率差,任何清醒的资本家都会做出理性的决策。至少在我看来,人类常规智力劳动被大规模替代,已经不再是科幻小说,而正在成为现实,而且到来的时间可能比我们预期的要早得多。
而微观战场的“避风港”幻觉也正在破灭。 这种替代并非遥不可及的科幻。来自一线大厂的真实体感显示,影响最深、感触最多的正是程序员群体[3]。AI 编程工具已经将几天的开发工作压缩到了几分钟,曾经高薪的初级工程师壁垒被快速稀释。我看到一些资深架构师试图退守到“AI 基础设施维护”的领域,寻找所谓的“避风港”。但这其实是一种迷思——基础设施的维护工作恰恰是高度可量化、可验证的,因此它很快也会被不知疲倦的 Agent 接管。更不用说,当下的模型(如 Codex、Claude、MiniMax)已经开始参与自身代码和权重的优化,实现了“自我递归”。
真正让我意外的是,系统瓶颈其实早已转移。 Andrej Karpathy 在近期的《No Priors》播客中抛出了一个极具穿透力的判断[4]。在每天 16 小时高强度依赖 AI Agent 进行开发(他戏称为“AI Psychosis”狂热状态)后,他发现很多时候任务失败,不再是模型能力不行,而是 “A Skill Issue”(这是一个技能问题)。具体来说,现在的瓶颈往往是人类作为 Orchestrator(系统指挥官),没有提供清晰的上下文(Context)、没有做好的 Prompt 设定和任务设定,没有构建好验证机制。
提升效率的核心问题,不再是单纯的“Human in the loop”,而恰恰相反,是如何设计一个 System,能够最终实现“Human out of the loop”。这样人类的 Token 吞吐量才不会成为系统的瓶颈。在开发者社区中,Karpathy 开源的 AutoResearch 项目[5] 已经给出了极佳的范例:他通过仅 630 行代码构建了一个闭环系统,让 Agent 在无人值守的情况下自主进行数百次实验,从而优化基础模型。类似的 Harness Engineering 范式也正在兴起,其核心在于为 AI 提供一个可运行、可验证的“沙盒”,让 Agent 在其中不断尝试、失败并最终自我进化。这种转变让我意识到——原来人类自身的微观操作才是整个系统的关键瓶颈。
请注意,这并不意味着我们要立刻抛弃“人在回路中”,而是我们需要经历一个关键的阶段转换:先通过“人在回路中”深刻理解 AI、放大个人的核心认知能力,最终才能设计出让人退出执行回路的系统。这两者并非对立,而是递进的两个阶段。
重构定位:从“齿轮”到“系统指挥官”

有了这些输入,行动才显得迫切,思考才显得有价值。我们就会明白:过去十年积累的“手工执行”壁垒正在被快速抹平。未来的核心竞争力,正从“代码产量”和“知识密度”,全面转向“意图表达、系统编排、预测与验证”。
既然“被替代”是不可避免的终局,在我看来,我更倾向于认为我们唯一能做的就是转换视角——不要被动等待工作被革命,你要主动发起对自己的革命。
因为一旦转换了视角,你会发现:虽然你的执行性工作确实很容易被 Agent 替代;但同时,在 Agent 的帮助下,你可以去完成以前根本不可能、甚至想都不敢想的事情。顺便一提,这也是著名投资人 Reid Hoffman 在近期系列播客访谈中的核心观点:AI 不会取代人类,而是赋能人类完成不可能的任务[6]。
以下是我总结并正在践行的三条发展路线,这既是我的主动思考,也是我的行动指南,希望对作为读者的你们有所参考:从工作自主化,到打造认知回路,再到构建最终的 Human-outside-the-loop 系统。
路线一:主动自我革命 —— 把工作“Skill 化”与自主化

最核心的思路是:不要被动等待着你的工作被 Agent 替代,你可以主动加速这个过程。你需要把日常工作抽象为一个个可验证的 Skill,设计一个 System,让你的工作尽可能被 Agent 自动化。
但这不仅仅是简单的“自动化 (Automation)”,而是应该走向“自主化 (Autonomous)”:前者是机械的执行,后者是具有智能的调度与反馈。
这让我意识到,我们手头的工具箱其实已经非常丰富:
其一是 Slash Command:用于触发具体的意图与模板。
其二是 Skills:把固定的工作流封装为可调用的技能。
其三是 MCP:打破信息孤岛读取上下文。
还有 Sub-agents 与 Hooks:利用子代理在后台完成特定领域的专业验证。
我发现,这种“自我替代”不仅能让你的交付速率和质量大幅提升,更重要的是,它让你从一个“执行齿轮”,逐渐升级为一个“调度者”。在组织还没有主动对你进行变革的时候,你提前为自己腾出了大量宝贵的时间。
但请记住,腾出时间仅仅是手段,而非终极目的。在被释放的带宽中,你需要将自己从一个单纯的“动作执行者”,快速迭代为“目标思考者”和“系统指挥官”。在 Agent 时代,最稀缺的不再是执行力,而是人类独有的判断力、组织调度能力以及对结果的“品味”[7]。
路线二:打造个人 I/O 认知回路 —— Human-in-the-loop 的极致

有了时间之后,你需要构建一个高密度的输入输出(I/O)系统。在这个阶段,我们要将 Human-in-the-loop(人在回路中)的效能发挥到极致。
我们要明确,人在回路中的核心目的并非为了和 AI 抢活干,而是为了达成三个递进的认知目标。最基本的一层,是通过高频互动去深刻理解边界——掌握 AI 真实的“能力圈”与盲区,而不仅是看新闻通稿。紧接着,这种持续的反馈循环能对你自己的大脑进行强化学习,帮你训练直觉与品味,养成本能的“AI 直觉”。直到这个阶段,当你不再只是“会用工具”,而是能通过设计、调度和指挥 AI,完成之前不敢想象的复杂工作时,你也就在不知不觉中跃迁为了超级个体。
高质量输入 (Input) 与最小可行例子
信息不再稀缺,高质量的信噪比才是关键。我个人打造了自动化的信息摄取系统:
首先,借助高质量的推特每日日报以及 RSS 简报确保输入“原钻”。
同时,使用 YCA 与 MRR 高效处理长视频和论文。
一个最小例子:我怎么把一条 YouTube 输入,变成一篇可发布洞察?
- 我看到 Andrej Karpathy 的新播客,将链接扔给 YCA。
- YCA 自动抓取字幕,通过预设的 Prompt 提取其核心观点(”It’s a skill issue”)。
- 生成的结构化笔记自动进入我的
00-inbox文件夹。这就从杂乱的音视频转变成了我的私有高信噪比素材。
实践与输出 (Output):5R 闭环
认知如果不转化为行动,就会变成幻觉。在我的经历里,没有动手去 Experiment,就不可能形成真实的壁垒。

我个人一直在跑一个改进版的 5R 模型闭环。起点永远是 Reconnaissance (侦察),比如我用工具自动抓取某个播客的信号。接着马上进入 Research (研究) 阶段,调用大模型进行事实核验和信息扩充,把它变成一个厚实的研究包。但这还不够——真正的增量发生在使用 Reflections (反思) 结合自身工作流进行内化时,比如去思考大厂工程师的焦虑到底从何而来。随后,必须亲自动手 Run (实践),亲自用 Cursor 去跑一个具体的项目来验证。收尾环节,用 Refine (归位) 把所有踩过的坑沉淀下来,交给大模型排版润色,发布成你现在看到的文章。这就是我的基本盘。
一个真实的 5R 闭环案例:
比如完成本篇文章的整个流程:我从 YouTube 上抓取了 AI 发展和 Karpathy 的播客作为初始输入(Reconnaissance),利用大模型扩充了大厂现状的技术背景形成研究包(Research),结合我自己作为安全专家的视角反思了它对个体能力的冲击(Reflections),通过本地 CLI Agent 结合脚本跑通了多 Agent 协作工作流(Run),最终将这些验证过的经验和思路沉淀为了你现在看到的这篇博客与内部的规则指令(Refine)。
这条路线的核心是:把阅读、研究、实验、复盘做成你的标准化输入输出系统,这套回路是你持续自我提升的最强引擎。
路线三:构建多 Agent 协同系统 —— 走向 Human-outside-the-loop

前两条路线虽然有效,但人类的精力(Token 吞吐量)有其物理极限。第三条路线是全文最具野心的部分。
如果你设计的系统能将“人类”这个效率瓶颈彻底移除,那么产出的天花板就只取决于你调用的算力。这就像在工作中找到了一个可以无限复制成功经验的方法——以极低的边际成本获得指数级的产出。
为了让这个设想从“科幻感”变成可操作的“路线图”,我们可以把它拆解为三个层面:
1. 我已经在做的部分:本地主控引擎的建立
目前,我已经建立了一个由本地主控的流转架构。我在本地运行了一个主控程序(比如基于大模型定制的命令行助手),充当我的“系统指挥官”。它负责理解我的高阶意图,并通过我定制的脚本自动化执行具体工作(如获取灵感、自动生成配图、替换外部链接)。在这个架构下,人类只在最初的需求定义和最终的质量验收环节介入。
2. 未来会成立的判断:云端全天候子代理生态
随着模型能力的完善和框架的成熟,我判断未来系统会彻底走向云端与多模态协同。
在设想中,主控引擎将能够常驻运行,并指挥多个具有特定能力的执行代理(比如让一个负责分析,一个负责编码,一个负责审核)。这些子代理将统一部署在云服务器上,接受分发任务,相互协作与验证。工作一旦完成,即可直接在云端部署生效,实现真正的“全自动闭环”。
3. 落地的现实限制条件
当然,理想很丰满,现实依然有其限制。要让这样一套无人值守的系统稳定运转,我目前还不确定能完全规避几个关键约束。
比如成本与错误级联:虽然 Token 便宜,但如果子 Agent 在无人监督下陷入死循环,高昂的 API 费用浪费只是表层问题,真正棘手的是随之而来的隐性修复成本。再比如稳定性与误判率:大模型的幻觉一旦在没有 Human in the loop 的情况下发生,对测试用例和自动化 QA 的严谨度要求就会被拉到极高。最让我警惕的还是权限与安全:赋予 Agent 执行命令和修改代码的权限,意味着系统暴露面会显著扩大,我们必须依赖类似沙箱环境或者 Model Armor 这样的安全层进行兜底。
结语:重写工作流,驾驭这股浪潮

AI 不仅仅是一次效率工具的升级,它引发的是一场类似“哥白尼革命”的世界观与组织范式重构。
在这个新世界里,竞争的法则变了:未来的竞争,不是 AI 取代人,而是会设计系统的人,取代只会手工做事的人。
与其在焦虑中寻找并不存在的避风港,不如主动拥抱“Skill Issue”的现实。把工作自动化/自主化,建立个人的认知 I/O 模块,并开始构思你的 Agent 协同网络。
不是所有工作都会立刻消失,但所有工作绝对都会被重写。在这场重写中,AI 负责处理所有的计算与执行。而我们人类?我们需要回归智能的最高层级——能动力与意志(Agency and Will)[8]。当我们将自身从系统的执行瓶颈中抽离出来,不再死磕“怎么做”,而是专注于定义“为什么”和“去哪里”时,那些曾经看似坚不可摧的壁垒,大概也就是一堆沙子。浪潮既然已经打过来,真正的应对之道,不是躲进避风港,而是造一艘自己的船。
参考与延伸阅读 (References)
本文的核心思考受启发于以下播客与研讨内容,强烈建议观看原文:
Andrej Karpathy: “It’s a skill issue” (No Priors Podcast)
- 作者/来源:Andrej Karpathy(前 OpenAI 创始成员,前特斯拉 AI 总监),基于他每天 16 小时高强度实战 AI Agent 的播客访谈。
- 为什么值得读:这期播客直接切中了“AI 时代人类瓶颈在于调度与意图表达”的核心洞察,与本文“从齿轮升级为指挥官”的观点形成强呼应。
- 观看视频
AI 究竟能取代什么:大厂的真实应用现状与架构师的迷思
- 作者/来源:「大飞的日常」(YouTube 科技观察频道,主理人大飞为资深技术从业者)。
- 为什么值得读:该视频节目通过对大厂一线员工的深度访谈,带回了最真实的行业体感,印证了“基础设施维护等可量化岗位也将被替代”的现实。
- 观看视频
AI文明史前传:算法与资本的双重螺旋
- 作者/来源:「AI文明史前传」视频节目(深度科技评论类 YouTube 频道),专注于从宏观经济学与算法演化视角拆解科技浪潮。
- 为什么值得读:它从资本逐利性的底层逻辑推演了“智力劳动被全面替代是必然”,为本文的宏观判断提供了经济学注脚。
- 观看视频
AI 时代的“人的尺度”:判断力与品位将主宰未来
- 作者/来源:Ivan Zhao(Notion 创始人)访谈录。
- 为什么值得读:提出了人类价值的“三个水桶”模型,深刻论证了在执行力被 AI 平权后,判断力、品位和能动性(Agency)如何成为个体的核心护城河。它为我们在 AI 巨浪中如何守住“人的尺度”提供了极具启发性的实践指南。
- 观看视频
AI 五大底层范式:哥白尼式认知革命
- 作者/来源:Blaise Agüera y Arcas(Google 智能范式团队创始人)与 James Manyika(Alphabet 高级副总裁)。
- 为什么值得读:本文深度解析了关于计算、进化和神经科学的五大底层范式,提出 AGI 在功能意义上已经到来的判断,并将 AI 的崛起比作一场摧毁“智能地心说”的认知风暴,是理解这场技术大爆炸的必修课。
- 阅读原文
- 参阅 Blaise Agüera y Arcas 撰写的 AGI 时代“哥白尼革命”相关论述。 ↩
- 观点引自「AI文明史前传」视频节目对算法与资本双重螺旋的推演。 ↩
- 引自「大飞的日常」对大厂一线员工的访谈及应用现状观察。 ↩
- 详见 Andrej Karpathy 在 No Priors 播客中关于 “It’s a skill issue” 的讨论。 ↩
- 指 Karpathy 开源的
karpathy/autoresearch项目,该项目通过 630 行 Python 代码实现了 AI 研究员的自动化闭环。 ↩ - 参见著名投资人 Reid Hoffman 近期在播客中关于 AI 代理与个人赋能的观点。 ↩
- 观点参考 Ivan Zhao 提出的“三个水桶”模型,强调人类在 AI 时代应深耕判断力与品位。 ↩
- 详见对智能最高层级——“能动力与意志”的哲学拆解,强调人类在自动化系统中的导航与意图价值,这也是未来的关键在于。 ↩