当增强回路失去调节,系统会如何走向失控

AI时代的系统动力学:我们正在失去控制吗?

  • 🔑 核心问题: 如何在提升 Agent 自主度的同时,增强我们自身驾驭 Agent 的能力?
  • 🧭 本文主线: 调节回路是否跟得上增强回路的提速。
    👉系统分叉点

这不是科幻情节,而是系统动力学里非常朴素的一条规律。过去一周我反复看三条新闻,越看越觉得不安:AI 的增强回路在提速,而调节回路明显更慢。

这三则新闻分别是:Anthropic 与国防部的冲突、Block 公司裁员 40% 的内部信,以及一份关于 2028 年全球智能危机的推演报告。表面看没关系,放在一起却都指向同一个问题:谁在决定 AI 往哪走?

从系统动力学的视角看,这三件事分别代表了:调节回路的尝试增强回路的显现,以及失控系统的未来投影

阅读导航:调节回路 -> 增强回路 -> 失控投影

一、调节回路的尝试:Anthropic 与 AI 治理规则的争夺

主题:治理边界与控制权
  • 🔑 核心判断: 这场争议的关键不只在条款内容,而在边界设定权归谁。
  • ⚖️ 关键差异: 技术前置约束与法律后置承诺都叫“控风险”,但执行强度并不对等。

2 月 26 日,Anthropic CEO Dario Amodei 发布声明,拒绝了国防部要求移除 AI 安全防护的请求。代价可能很直接:丢合同、被贴“供应链风险”标签,甚至被《国防生产法》强制介入。

他的两条红线清晰而坚定:

  • 禁止大规模国内监控

  • 禁止完全自主武器

“AI 驱动的 mass surveillance 对我们的基本自由构成了严重的、新颖的风险……今天的最前沿 AI 系统根本不足以支持完全自主武器。”

我更愿意把这件事理解成一次“控制权”争夺。国防部要求“任何合法使用”的完全权限,本质上是在争夺最终裁决权。Amodei 的拒绝,则是在尝试把约束写进系统本身,先把高风险用途拦在外面。

但调节回路并不稳。

戏剧性的是,2 月 28 日 OpenAI 宣布与国防部达成协议,而协议内容明确包含与 Anthropic 主张相同的两项条款:禁止国内大规模监控、人类对使用武力的责任。五角大楼接受了条款内容,却拒绝了 Anthropic 本身。

这件事让我更在意的是:问题不只在条款内容,更在于谁有权设定条款。Anthropic 要的是主动防护(技术上先限制),五角大楼要的是被动承诺(法律上先约定)。两者都叫“约束”,但执行强度不是一个量级。

当特朗普下令全面封杀 Anthropic、OpenAI 迅速补位、Elon Musk 公开指责 Anthropic“仇恨西方文明”时,我看到的是另一件事:权力博弈一上强度,调节回路很容易先被挤压。

Anthropic与国防部争议时间线

Anthropic争议利益相关方立场关系图

上图展示了 Anthropic-国防部争议中的主要利益相关方及其立场关系。蓝色节点代表 Anthropic 阵营,红色节点代表五角大楼/特朗普阵营,灰色节点代表中间或复杂立场。节点大小反映影响力,连线粗细反映立场关联强度。


二、增强回路的显现:Block 裁员与 AI 替代的逻辑

主题:效率增益与就业替代
  • 📈 现实观察: 单家公司追求效率没问题,问题在于同向决策叠加后的系统效应。
  • 🧱 结构风险: 危险不只在岗位替代,而在替代速度快过再培训与新岗位生成速度。

就在 Anthropic 试图拉起治理边界的同时,另一股力量也在推进:AI 替代带来的增强回路。

2 月 26 日,Jack Dorsey 在宣布 Block 裁员 40% 的内部信中写道:

“我们已经看到,我们正在创建和使用的智能工具,加上更小、更扁平的团队,正在启用一种新的工作方式,这根本改变了构建和运营公司的意义。”

这不是因为 Block 遇到了麻烦。恰恰相反,Dorsey 强调“业务强劲,毛利润持续增长”。裁员的原因是:AI 工具已经让 10,000 人的工作可以由 6,000 人完成

我把这看成一个很典型的增强回路:AI 能力提升 -> 人员需求减少 -> 成本降低 -> 更多资源继续投向 AI -> AI 再次提速。

在系统动力学里,增强回路的麻烦在于“天然没有刹车”。单看每家公司,这几乎都是理性决策;合在一起看,劳动力市场就会承受持续冲击。

增强回路示意图

我真正担心的不是岗位被替代,而是“替代后的出路”也在被压缩。

当 15 家最大科技公司对新毕业生的招聘下降超过 50%,22-25 岁软件开发人员就业率自 2022 年底以来下降 20%,很多“做对了一切”的年轻人会发现:职业阶梯最底层那一级正在变薄。这更像结构变化,不太像普通周期波动。

就像“2028 年全球智能危机”推演中所描述的:

“AI 是一种通用智能,它在人类会重新部署到的任务上不断改进。被取代的程序员不能简单地转向‘AI 管理’,因为 AI 已经能够做到这一点。”


三、失控系统的未来:2028 年全球智能危机的预警

主题:失控路径与宏观风险
  • 🔍 阅读方式: 这类 2028 推演更适合当压力测试,不应当作确定性预言。
  • 🌀 风险机制: 正反馈链路一旦闭环,系统波动会被自动放大,且难以自发刹车。

2028年全球智能危机预警手绘图

如果我们把 Anthropic 事件和 Block 裁员放在系统动力学模型中,就能理解那份“2028 年全球智能危机”推演报告的真正含义。

这是一个没有调节回路的增强回路的必然结果。

报告里给出的 2028 年场景并不轻松:

  • 失业率 10.2%,但市场已经麻木,因为“六个月前,这样的数据会触发熔断”

  • 名义 GDP 持续增长,但出现了“Ghost GDP”——产出在增长,但从未在真实经济中流通

  • 货币流通速度崩溃,因为“机器在可自由支配商品上的花费是零”

  • 消费经济枯萎,因为被 AI 替代的白领工人失去了收入来源

我不把它当成“注定会发生”的剧本,但它确实提供了一条系统动力学上的高风险路径:

$\text{AI能力提升} \rightarrow \text{人员需求减少} \rightarrow \text{消费力下降} \rightarrow \text{企业利润压力} \rightarrow \text{更多AI投资} \rightarrow \text{AI能力进一步提升}$

这条链路本质上是正反馈,而且很难自己停下来。

报告中描述的那个“人类智能替代螺旋”(human intelligence displacement spiral)正是增强回路失控后的状态:

“AI 能力提高,公司需要更少工人,白领裁员增加,被替代工人消费减少,利润压力推动公司投资更多 AI,AI 能力提高……这是一个没有自然刹车的负反馈循环。”

当我们读到 Zendesk 因 AI 客服自动化而违约、印度 IT 服务业因 AI 编码代理而承压、Mastercard 因代理优化价格而收入下滑时,可以看到同一个方向:增强回路正从单点渗透到经济基础层。


四、系统的分叉点:我们能建立调节回路吗?

主题:系统分叉点与集体行动
  • 👥 集体悖论: 个体理性会持续推高系统速度,即使每个人都在做局部正确的决定。
  • 🧩 治理门槛: 最难的一步是把分散决策转成协同治理,而这一步通常最慢。

系统的分叉点手绘图

现在让我们把三件事放在一起看:

事件 系统动力学角色 当前状态
Anthropic 事件 调节回路的尝试 正在失效
Block 裁员 增强回路的显现 全速运转
2028 年推演 失控系统的未来 可能的终点

我们正处于系统的分叉点。

如果调节回路成功建立——如果政府、企业和社会能就 AI 伦理达成共识,如果技术公司能像 Anthropic 那样坚持主动防护,如果我们能在 AI 替代与社会保障之间找到平衡——那么增强回路可以被驯服,AI 可以成为人类福祉的放大器。

但如果调节回路继续失效——如果五角大楼式的“任何合法使用”逻辑获胜,如果 OpenAI 式的“两面策略”成为行业规范,如果我们继续让市场逻辑主导 AI 发展方向——那么 2028 年的推演场景将不只是推演,而是预告。

关键问题在于:调节回路需要集体行动,而增强回路只需要个体理性。

每一个裁员的企业都在做理性决策,每一个接受“无限制”协议的 AI 公司都在追求竞争优势,每一个拥抱 AI 自动化的消费者都在追求便利。但集体结果是系统的失控。

这正是 Anthropic 事件的意义所在。Amodei 的“cannot in good conscience accede”不仅仅是一家公司的商业选择,而是试图用个体伦理来弥补集体行动的缺失。当他说“每家公司的个体反应都是理性的,但集体结果是灾难性的”,他描述的不仅是 AI 替代,也是 AI 治理的困境。


五、前瞻:在增强与调节之间

主题:重建调节回路的行动路径
  • 🛠️ 行动优先: 与其争论“会不会失控”,不如先明确今天能落地的机制。
  • ⏳ 时间约束: 技术约束、治理协同、再分配与公众参与可以并行,但窗口并不宽裕。

重建调节回路的四种路径手绘图

系统动力学告诉我们,所有复杂系统都包含增强回路和调节回路的互动。增强回路推动变化,调节回路提供稳定性。健康的系统需要两者的平衡。

但在 AI 时代,这个平衡正在被打破:

  • 技术演进速度超过了治理机制的响应速度

  • 全球竞争压力削弱了单个国家建立严格监管的能力

  • 企业利益与公共利益之间的张力日益尖锐

  • 公众参与技术治理的渠道仍然有限

Anthropic 的抗争、Block 的裁员、2028 年的推演,三者共同指向一个核心问题:在一个由增强回路主导的世界里,我们如何重建调节回路?

可能的答案包括:

  1. 技术层面的主动防护:不是依赖法律承诺,而是在代码中嵌入不可绕过的伦理约束

  2. 国际治理机制:超越国家层面的 AI 伦理标准,防止“监管套利”

  3. 社会保障的重构:承认 AI 替代的不可逆性,建立与生产率增长脱钩的全民基本收入或类似机制

  4. 民主参与的技术治理:让公众而不只是技术专家和政府官员参与 AI 发展方向的决策

但所有这些都需要时间,而增强回路正在以月为单位加速运转。


结语:社会契约的重新谈判

结论:被动适应 = 主动失控
  • 🚪 现实状态: 选择窗口还在,但正在持续收窄。
  • 💸 成本提醒: 越晚建立调节回路,后续修正系统偏差的成本越高。

社会契约的重新谈判手绘图

在“他们做对了一切”那篇文章的结尾,作者写道:

“社会契约——努力工作、接受教育、拥有一席之地——不是自然法则。它是一种协议。而协议会被重新谈判。有时是和平的,有时是暴力的。”

这个判断适用于所有三个事件:

  • Anthropic 与国防部的冲突,是 AI 控制权的协议重新谈判

  • Block 的裁员,是劳动与资本的协议重新谈判

  • 2028 年的危机推演,是人类与机器在经济社会中角色的协议重新谈判

系统动力学不做道德判断,只负责把因果关系摊开。选择仍然在人手里。我们不是没有窗口,只是窗口不会一直开着。

关键问题是:我们是否有足够的政治意愿、技术智慧和集体行动力来做到这一点?

Anthropic 的抗争至少给了一个样本:面对政府压力、商业诱惑和舆论标签,仍然有人愿意先守住边界再谈增长。

这不是天真,而是另一种现实主义:调节回路常常从少数人的“不配合”开始。

我不觉得我们需要恐慌,但确实需要更早行动。被动适应拖得越久,系统偏离就越难拉回。

增强回路不会等待我们准备好。调节回路必须现在就开始建立。

系统分叉点


参考文献 (References)

资料来源与延伸阅读
  • 📚 证据结构: 参考文献覆盖治理冲突、组织变化与宏观风险推演三条证据线。
  • ✅ 阅读建议: 先核对时间线与原始表述,再回看正文中的推断部分。

本文基于以下三份核心材料撰写,建议读者阅读原文以获得更完整的信息:

1. Anthropic 与国防部 AI 安全争议

原文标题:Statement from Dario Amodei on our discussions with the Department of War

发布机构:Anthropic

发布时间:2026 年 2 月 26 日

原文链接Anthropic 官网

核心内容:Dario Amodei 发布的 800 字公开声明,明确拒绝国防部要求移除 AI 安全防护的请求,确立两条红线:禁止大规模国内监控和禁止完全自主武器。

2. Block 公司裁员与 AI 转型

原文标题:we’re making @blocks smaller today. here’s my note to the company.

发布人:Jack Dorsey (Block CEO)

发布时间:2026 年 2 月 26 日

原文链接:Twitter/X 平台发布 (原始推文

核心内容:Jack Dorsey 宣布 Block 公司将组织规模缩减近一半(从 10,000 人减至 6,000 人),强调这不是因为业务困难,而是因为 AI 工具正在根本性地改变工作方式。

关键引述

“我们已经看到,我们正在创建和使用的智能工具,加上更小、更扁平的团队,正在启用一种新的工作方式,这根本改变了构建和运营公司的意义。”

3. 2028 年全球智能危机情景推演

原文标题:THE 2028 GLOBAL INTELLIGENCE CRISIS

发布机构:CitriniResearch

发布时间:2026 年 2 月 22 日(标注为 2028 年 6 月 30 日的“宏观备忘录”)

原文链接CitriniResearch

核心内容:一份以 2028 年视角撰写的“宏观备忘录”,推演 AI 快速发展导致的全球经济危机场景,包括失业率飙升、Ghost GDP 现象、消费经济枯萎等系统性风险。

关键概念

  • Ghost GDP(幽灵 GDP):产出在国民账户中增长但未在真实经济中流通

  • Human Intelligence Displacement Spiral(人类智能替代螺旋):AI 能力提高 → 裁员增加 → 消费下降 → 更多 AI 投资的正反馈循环

  • Reflexivity(反身性):AI disrupted 行业的同时被迫加速采用 AI 的悖论

4. 补充阅读:AI 劳动力市场影响

原文标题:They Did Everything Right 他们做对了一切

发布时间:2026 年 2 月

原文链接X/Twitter

核心内容:分析 AI 对劳动力市场的影响,特别关注 22-30 岁新毕业生和 45-55 岁中年员工的困境,探讨“社会契约”的重新谈判。

关键引述

“I did not have to do layoffs, but I wanted to optimize my team for the new world. One person with AI tools can do what three people did before.”
”我不需要裁员,但我想为新世界优化我的团队。一个人使用 AI 工具可以完成之前三个人的工作。”


术语表 (Glossary)

  • 🗂️ 使用方式: 把术语表当作“回看正文”的索引,而不只是附录。
  • 🔁 阅读技巧: 如果某段偏抽象,先对照术语定义,再回到对应章节看因果链。

系统动力学相关

术语英文定义
增强回路Reinforcing Loop正反馈循环,系统的输出增强输入,导致指数级增长或衰减。在本文中指 AI 能力提升 → 人员需求减少 → 更多 AI 投资的自我强化循环
调节回路Balancing Loop负反馈循环,系统的输出抑制输入,维持稳定性。在本文中指通过伦理约束、治理规则等方式控制 AI 发展方向的机制
正反馈Positive Feedback输出增强输入的反馈机制,导致系统偏离平衡,加速变化
负反馈Negative Feedback输出抑制输入的反馈机制,使系统回归平衡,维持稳定
分叉点Bifurcation Point系统可能走向不同发展路径的关键节点,微小的扰动可能导致截然不同的长期结果

AI 技术与伦理

术语英文定义
完全自主武器Fully Autonomous Weapons无需人类批准即可选择并攻击目标的武器系统。Anthropic 的两条红线之一
大规模国内监控Mass Domestic Surveillance利用 AI 技术对本国公民进行系统性数据收集与分析。Anthropic 的另一条红线
主动防护Active Protection在技术层面嵌入硬性约束,阻止特定使用场景(Anthropic 主张的方式)
被动承诺Passive Commitment依赖法律协议约束,但技术本身不限制使用(五角大楼要求的方式)
AI 代理AI Agents能够自主执行多步骤任务的 AI 系统,将 AI 能力从“工具”升级为“行动者”
红线Red Lines不可妥协的底线或原则,用于界定 AI 使用的伦理边界
供应链风险Supply Chain Risk美国国防部用于标识可能危害国家安全的供应商的标签,通常用于敌对国家企业,首次用于美国公司

经济与商业

术语英文定义
幽灵 GDPGhost GDP在国民账户中显示但不在真实经济中流通的产出。AI 驱动生产率增长但机器消费为零导致的经济现象
反身性Reflexivity被 AI 颠覆的公司反而被迫成为 AI 最激进采用者的悖论
人类智能替代螺旋Human Intelligence Displacement SpiralAI 能力提高 → 公司裁员 → 被替代工人消费减少 → 利润压力推动更多 AI 投资的正反馈循环
永久资本Permanent Capital私募股权行业术语,指长期锁定的投资资金。本文揭示其实际上是美国家庭的年金储蓄
私募信贷Private Credit非银行机构提供的债务融资,2026 年规模已超过 2.5 万亿美元
职业阶梯Career Ladder从初级职位逐步晋升到高级职位的传统职业发展路径,正在被 AI 破坏

法律与政策

术语英文定义
国防生产法Defense Production Act (DPA)1950 年朝鲜战争时期法律,允许总统强制私营企业优先满足国防需求。五角大楼威胁援引此法案强制 Anthropic 移除防护栏
供应链风险指定Supply Chain Risk Designation美国国防部的供应商审查机制,被指定企业将被禁止与联邦机构及军事承包商合作
社会契约Social Contract努力工作、接受教育就能获得经济安全和社会地位的非正式协议,正在被 AI 时代重新谈判
第一修正案First Amendment美国宪法保护言论自由的条款,Anthropic 可能援引以挑战“供应链风险”标签

组织与人物

术语说明
AnthropicAI 安全公司,开发 Claude 聊天机器人,以 AI 安全研究著称
OpenAIAI 研究公司,开发 ChatGPT,与 Anthropic 是主要竞争对手
Block金融科技公司(原 Square),由 Jack Dorsey 创立,2026 年 2 月宣布裁员 40%
ClaudeAnthropic 开发的 AI 助手,首个被批准用于美国政府机密网络的前沿 AI 模型
Dario AmodeiAnthropic CEO,前 OpenAI 研究副总裁,AI 安全领域知名研究者
Sam AltmanOpenAI CEO, YC 前总裁
Jack DorseyBlock 和 Twitter/X 的联合创始人
Elon MuskxAI 创始人,Tesla、SpaceX CEO,在 Anthropic 争议中公开支持五角大楼
Pete Hegseth美国国防部长,向 Anthropic 发出最后通牒

本文整理于 2026 年 2 月 28 日。AI 治理与经济发展是快速变化的领域,建议读者持续关注最新进展。


AI时代的系统动力学:我们正在失去控制吗?
https://blog.bruxelles-ai.ac.cn/2026/02/28/2026-02-28-ai-system-dynamics-control/
作者
Martin
发布于
2026年2月28日
许可协议