← 返回
142 min 2026-02

Dario Amodei — "We are near the end of the exponential"

概要

Dario Amodei 深度访谈:指数增长接近终点、编码生产力频谱、AGI 时间线一到三年、Claude Code 诞生故事、安全治理路径与地缘博弈

核心洞察

元信息

  • 被访者:Dario Amodei,Anthropic CEO
  • 访谈者:Dwarkesh Patel
  • 来源:The Lunar Society Podcast
  • 时长:142 分钟

Executive Summary

  • 技术指数仍在按预期推进,但公众对"指数即将走完"这件事的无感令 Dario 感到震惊。 他给出明确时间表——90% 的概率在 10 年内、50% 的概率在 1-3 年内到达"数据中心里的天才之国"(country of geniuses in a data center),即在数字世界中拥有一群能力匹敌诺贝尔奖得主的 AI 智能体。
  • Anthropic 的营收轨迹印证了技术扩散的速度:2023 年 1 亿 → 2024 年 10 亿 → 2025 年 90-100 亿美元,2026 年 1 月单月又新增数十亿。 但 Dario 反复强调"极快但非瞬时"——经济扩散不会无限快,企业采购流程、安全合规、变更管理都在产生摩擦。
  • RL 扩展正在重现预训练时代的故事:从窄域(数学竞赛)走向广域,泛化正在涌现。 "大计算团块假说"(Big Blob of Compute Hypothesis)自 2017 年提出至今未被推翻,预训练 + RL 双阶段共同构成了"介于人类进化与人类学习之间"的新型学习范式。
  • 编程是 AI 渗透最深的领域:AI 已写 90% 的代码,但从"90% 代码"到"100% 端到端软件工程"再到"软件工程师需求减少 90%"是一个漫长的频谱。 Anthropic 内部编码生产力提升约 15-20%,六个月前仅 5%——雪球正在加速滚动。
  • Claude Code 从内部工具到品类领导者的路径,本质是"狗粮驱动的产品-市场匹配": Anthropic 2500 名工程师每天使用,形成了模型能力与产品迭代的飞轮。
  • 在安全与治理层面,Dario 拒绝"十年联邦禁令"式的放任,主张从透明度标准起步、按风险证据逐步升级监管。 他对 AI 生物恐怖主义风险的紧迫感远超对"情感聊天机器人禁令"的担忧,并呼吁在今年晚些时候就可能采取实质性立法行动。
  • 主线串联:Dario 的核心叙事是一条"陡峭但平滑的指数曲线"——技术能力飞速前进、经济扩散紧随其后但有摩擦、安全治理必须与之赛跑。他既是加速主义者("不到 2030 年就会有万亿美元收入"),也是审慎主义者("如果对需求预测偏差一年,就会破产"),这种张力贯穿了整场对话。

"大计算团块假说"八年未被推翻:预训练 + RL 双引擎驱动能力指数

核心要点:AI 能力的核心驱动力始终是"七大要素"——算力、数据量、数据质量与分布、训练时长、可扩展的目标函数、数值稳定性——RL 扩展只是同一规律的最新实例。

  • Dario 早在 2017 年 GPT-1 刚发布时就写了"大计算团块假说"(Big Blob of Compute Hypothesis),列出七个关键要素。八年过去,他认为没有任何观察与之矛盾。Rich Sutton 两年后发表的"苦涩的教训"(The Bitter Lesson)表达了相似理念。
  • RL 扩展正在复刻预训练故事:多家公司的公开数据显示,在 AIME 等数学竞赛上模型表现与训练时长呈对数线性关系。Anthropic 自身也在广泛 RL 任务上观察到同样的缩放规律。
  • 预训练的泛化跃迁发生在数据从窄分布(GPT-1 的文学文本 / fanfiction)扩展到全互联网(GPT-2 的 Common Crawl / Reddit 链接抓取)时。RL 正在经历同样的过程:从数学竞赛 → 代码 → 多种任务。
  • 针对 Rich Sutton"LLM 不够像人类学习"的质疑,Dario 提出精妙的"层级类比":预训练介于人类进化与人类终身学习之间,上下文学习介于人类长期学习与短期学习之间——LLM 的学习模式并非落在人类学习谱系的某个精确点上,而是填充在各点之间。
"在距离指数终点如此之近的时候,人们还在讨论那些陈旧的热门政治话题,这在我看来简直疯狂。" —— Dario Amodei

编码生产力的漫长频谱:从"AI 写 90% 代码"到"SWE 需求减少 90%"是不同的世界

核心要点:AI 在编程领域的渗透最快、数据最清晰,但"代码行数"与"端到端生产力"之间存在被严重低估的鸿沟。

  • Dario 八九个月前预测"AI 将在 3-6 个月内写 90% 的代码",这已在 Anthropic 及许多下游用户中实现,但他强调这个标准极弱——"90% 的代码由 AI 写"和"不需要 90% 的软件工程师"完全是两个世界。
  • 他给出了一个完整频谱:90% 代码 → 100% 代码 → 90% 端到端 SWE 任务(含编译、集群搭建、测试、写备忘录)→ 100% 端到端 SWE 任务 → SWE 创造新的高层任务 → SWE 需求减少 90%。他预计 1-2 年内可实现端到端 SWE,包括"设定技术方向、理解问题上下文"。
  • Anthropic 内部体感:当前编码模型带来约 15-20% 全要素加速,六个月前仅约 5%。"5% 不值一提,但 15-20% 已开始成为多个因素中真正起作用的一个。"雪球在加速滚动。
  • Dwarkesh 引用一项研究反驳:经验丰富的开发者使用 AI 工具后自我报告生产力提升,但实际合并代码量下降了 20%。Dario 的回应是:Anthropic 处于巨大商业压力下,"没有时间自欺欺人",内部每几个月就通过模型发布验证真实产出。有工程师已经不写任何代码,GPU kernel 和芯片代码全交给 Claude。
"有人以为我在说我们不再需要 90% 的软件工程师了。这两件事之间隔着一整个世界。" —— Dario Amodei

"数据中心里的天才之国":一到三年内到达,十年内 90% 确定

核心要点:Dario 给出了他迄今最明确的 AGI 时间表——50% 概率 1-3 年,90% 概率 10 年,5% 的不可约不确定性来自地缘灾难(台湾被入侵、晶圆厂被炸)等极端事件。

  • 他将信心区分为强弱两层。弱版:10 年内到达"天才之国"的概率为 90%,"说 2035 年前不会发生在任何理性世界都应被视为非主流观点"。强版(直觉):1-2 年内到达的概率约 50%。
  • 唯一的根本性不确定来自"不可验证任务"——规划火星任务、做出 CRISPR 级别的科学发现、写小说。可验证任务(编码、数学)的路径非常确定,但从可验证域到不可验证域的泛化已经在发生,只是可能不完全。
  • Anthropic 官方预测写入了公开文件:到 2026 年底或 2027 年初,AI 系统将具备"导航人类可用的数字界面、智力能力匹配或超越诺贝尔奖得主、与物理世界交互"的能力。
  • 关于"持续学习"(continual learning)是否是瓶颈:Dario 认为可能根本不存在这个障碍——预训练泛化 + RL 泛化 + 百万 token 上下文学习可能就足够。但他也表示正在研究真正的持续学习,"有很大概率在一两年内解决"。
"如果我们真的有了'数据中心里的天才之国',我们会知道的。这个房间里的每个人都会知道。华盛顿的每个人都会知道。我们现在还没有。" —— Dario Amodei

经济扩散:极快但非瞬时——10 倍年增长的天花板在哪里

核心要点:Dario 明确拒绝了两种极端叙事——"AI 没用论"和"递归自我改进瞬间奇点论",坚持一条"陡峭但平滑的指数"。

  • Anthropic 营收数据:2023 年 0→1 亿、2024 年 1→10 亿、2025 年 10→90-100 亿美元。2026 年 1 月单月又新增数十亿。"你以为曲线会放缓,但它没有。"不过 Dario 承认 2026 年内可能开始弯曲——毕竟 GDP 有限。
  • Claude Code 是扩散速度的绝佳案例:个人开发者和 Series A 创业公司的采用速度比大型企业快好几个月。大型金融和制药公司采用速度远快于历史上任何新技术,但仍需经过法务、安全合规、领导层解释、3000 人滚动部署等环节。
  • Dwarkesh 犀利挑战:"扩散是 cope(自我安慰)。AI 的天然优势(秒读全部 Slack、无逆向选择问题、可复制)应该让扩散比人类招聘容易得多。全球每年给人类发 50 万亿美元工资,招人比招 AI 麻烦多了,但人类照样被雇用。"
  • Dario 回应:扩散是真实的,但不是"AI 不重要"的理由。他的框架是:有一条快速指数(模型能力),下游还有一条快速指数(经济扩散)。后者比前者慢,但比历史上任何技术都快。他对"不到 2030 年就有万亿美元收入"高度确信。
"我们正试图让 Anthropic 的年收入增长 20 到 30 倍而不是 10 倍。企业客户说'这太有生产力了,我们要在通常的采购流程中走捷径'。他们的速度比我们卖普通 API 时快得多。" —— Dario Amodei

算力投资的"地狱级需求预测":如何在万亿美元级别押注而不破产

核心要点:Dario 首次完整阐述了 AI 行业的资本支出逻辑——为什么既不能"YOLO 式"投千亿、也不能保守观望,以及"盈利"在这个行业中意味着什么。

  • 行业算力增长速度:2025 年约 10-15 GW,每年 3 倍增长。2026 年 30-40 GW,2028 年 100 GW,2029 年 300 GW。每 GW 年化成本约 100-150 亿美元。到 2028-2029 年,行业级别达到数万亿美元。
  • "如果对需求预测偏差一年,就会破产。"——假设 2027 年按 10 倍增长买下 1 万亿美元算力,如果增速只有 5 倍或晚了一年,"地球上没有任何对冲能救你"。所以 Anthropic 买了"能捕获相当强上行空间"的量,但不是激进的极限值。
  • 盈利的本质是"需求预测误差的方向":如果低估了需求(收入超预期),就盈利但研究算力被挤压;如果高估了需求,就亏损但有充足研究算力。2028 年盈利预期不是因为停止投资,而是因为推理业务的毛利率高于 50%、训练投入占比趋于稳定。
  • 行业结构将是 3-4 家巨头的"库诺均衡",类似云计算——进入门槛极高(资本 + 专业能力),不会完全竞争到零利润,也不会形成垄断。模型之间的差异化(Claude 擅长的领域 ≠ GPT 擅长的 ≠ Gemini 擅长的)比云服务更强。
"有些公司根本没有写下那张电子表格。他们不理解自己在承担什么风险。他们只是觉得酷就做了。" —— Dario Amodei

Claude Code 的诞生:从内部 CLI 到品类王者的意外路径

核心要点:Claude Code 并非战略规划的产物,而是 Anthropic "自己吃自己的狗粮"时自然生长出来的——内部产品-市场匹配先于外部发布。

  • 2025 年初,Dario 判断"用自家模型显著加速自身研究的时机已到",鼓励内部员工自由实验。最初叫 Claude CLI,后改名 Claude Code。
  • 内部采用飞速增长,Dario 的逻辑很简单:"我们有几百人的代表性样本,已经证明了产品-市场匹配。为什么不发布?"
  • 编码是一个天然有利于 AI 的领域——代码库本身就是"外化的记忆支架",模型通过读取代码库就获得了人类需要半年才能积累的上下文。这也解释了为什么编码进步如此之快,而其他经济活动可能更慢。
  • 反馈飞轮:内部开发者发现"模型在 X 方面可以更好" → 烘焙到下一代模型 → 产品迭代 → 外部数百万用户反馈进一步加速。"这就是我们推出了编码模型而不是制药公司的原因——虽然我的背景是生物学。"
"Anthropic 有工程师已经不写任何代码了。GPU kernel、芯片代码,他们以前自己写,现在全交给 Claude。" —— Dario Amodei

AI 安全治理:从透明度起步,按证据升级,拒绝十年真空

核心要点:Dario 的监管哲学是"起步轻、升级快"——先透明度标准,再按风险证据逐步加码,关键是保持灵活性而非一步到位。

  • 他明确反对美国国会提出的"十年联邦禁止州级 AI 立法"的法案:没有联邦替代方案、没有实际立法提案,在 10 年这个"永恒"的时间跨度内放任不管,面对生物武器和自主性风险,"这是疯狂的"。
  • 但他也反对田纳西州那样的"禁止 AI 提供情感支持"的法案——"立法者显然对 AI 能做什么和不能做什么毫无了解。"
  • 他支持的路径:联邦政府制定统一标准并"抢占"州法(preemption),但前提是联邦确实在行动而非留下真空。当前阶段以透明度标准为主;一旦风险证据充分(他认为可能今年晚些时候),快速推进针对性立法(如强制要求生物分类器)。
  • 对 AI 好处被监管扼杀的担忧,Dario 认为发达国家问题不大——"当有大量金钱可赚且明显是最佳替代方案时,监管体系实际上很难阻止它"。芯片出口管制的例子证明了这一点(所有人都支持,但钱太多了所以执行不力)。他更担忧的是发展中国家和 FDA 药物审批流程的瓶颈。
"那项法案已经开始显得不合时宜了——你已经看到了反弹。" —— Dario Amodei

地缘博弈:民主国家必须在"规则制定时刻"握有更强的牌

核心要点:Dario 主张对华芯片出口管制,核心逻辑不是遏制中国人民的福祉,而是防止在 AI 带来的"关键窗口期"中,威权国家获得颠覆性军事和网络优势。

  • 他区分了两层风险:(1) 攻击主导(offense-dominant)世界中,一方 AI 足以摧毁一切,比核武器更危险且可能不稳定——核威慑稳定是因为确定性,而 AI 对抗存在"双方都认为自己有 90% 胜率"的不确定性;(2) 威权政府用 AI 压迫本国人民,建成高科技极权国家。
  • 他的框架:AI 指数会持续推进,但会有"若干关键时刻"——某国或某联盟在网络进攻、核威慑稳定性等维度率先到达临界点。在那个时刻会有一次隐性或显性的"后 AI 世界秩序"谈判,他希望民主国家在谈判中握有更强的牌。
  • 但他并不主张推翻所有威权国家——在访谈中他坦承自己在《技术的青春期》中"探索了更激进的观点",但承认其问题。他引用中国 70-80 年代的接触政策作为正面案例:十几亿人因此变得更富裕。
  • 他提出一个更具想象力的可能:能否通过技术本身创造一种"均衡态",使威权国家无法在保持权力的同时阻止国民私人使用 AI?"我们曾寄希望于社交媒体和互联网能瓦解威权,结果没有。但如果我们带着失败的教训用不同的技术再试一次呢?"
"独裁可能会变成一种在道德上过时的政府形式——在道德上不可行。而这场危机的严重程度足以迫使我们找到另一条路。" —— Dario Amodei

AI 宪法与价值观:原则优于规则,竞争优于垄断

核心要点:Anthropic 的 AI 宪法选择"原则导向"而非"规则列表",是因为原则能让模型行为更一致、更好泛化;在价值观设定上,Dario 设想三层迭代反馈环路。

  • 规则 vs. 原则:给模型一堆"不许做 X"的规则,模型难以理解和泛化("不许告诉人怎么短接汽车、不许说韩语");给模型原则——"在正常情况下执行用户任务,但拒绝危害他人的请求"——行为更一致,边缘案例覆盖更好。
  • 可纠正性(corrigibility)vs. 内在动机:模型大体上应该是"可纠正的"——执行用户指令为默认态,但设有硬性底线(如不制造生物武器)。"我们不是在造一个自行去管理世界的东西。"
  • 三层迭代环路:(1) Anthropic 内部迭代——训练模型、不满意就修改宪法;(2) 公司间竞争——Anthropic、Gemini、其他公司各出宪法,外部观察者比较优劣,形成软性激励;(3) 社会参与——曾与 Collective Intelligence Project 合作做公众调研,未来可能扩展到代议制政府输入(但目前立法流程太慢)。
  • Dwarkesh 将第二层类比为自由意志主义者的"群岛乌托邦"——不同治理模式竞争、人们用脚投票。Dario 承认"这个愿景有可取之处,也会出现你想不到的问题",关键是三层环路的比例组合。
"通过教模型原则而非规则,它的行为更一致,更容易覆盖边缘情况,也更可能做到用户真正想要的事。" —— Dario Amodei

机器人革命:在"天才之国"之后再加一两年

核心要点:机器人技术的突破不依赖单一路径(不一定需要"像人类一样的学习"),而是会通过多条路径汇聚——模拟环境泛化、计算机使用技能迁移、上下文学习——实现时间窗口在"天才之国"之后追加一到两年。

  • Dario 预测机器人产业也将产生万亿美元级收入,但要叠加"极快但非瞬时"的额外扩散延迟。
  • 他强调 AI 将同时革新两件事:机器人硬件设计(AI 比人类更擅长)和机器人控制软件。
  • 计算机使用(computer use)是当前的关键瓶颈之一——OSWorld 基准从 Anthropic 首次发布时的约 15% 攀升到 65-70%,但可靠性仍需跨过一个临界点。
"机器人技术会被革命化吗?会的。大概再加一两年。" —— Dario Amodei

发展中国家不能被落下:不靠慈善,靠内生增长

核心要点:Dario 担心 AI 红利地理分布极度不均——硅谷增长 50%、世界其他地方几乎不变——这将是"一个非常糟糕的世界"。他的解法不是慈善,而是在发展中国家建立内生 AI 产业。

  • 传统追赶增长的机制是"未充分利用的劳动力 + 发达国家的资本和知识"。在劳动力不再是约束因素的 AI 时代,这个机制失效。
  • 他的方案:(1) 在非洲建数据中心("只要不是中国拥有的");(2) 在发展中国家扶植 AI 驱动的生物技术创业公司;(3) 确保转型期人类仍有角色时,一部分这些人类在发展中国家。
  • Anthropic 已经在与全球慈善家和向撒哈拉以南非洲、印度、拉丁美洲递送医疗干预的机构合作。
  • 他对发达国家并不太担忧——市场机制会推动 AI 好处的扩散。真正的瓶颈是 FDA 药物审批流程:AI 将大幅加速药物发现,但审批管线"没有准备好处理如此多的涌入"。
"增长和经济价值会来得很容易。不容易的是利益分配、财富分配和政治自由。" —— Dario Amodei

领导力与公司文化:DVQ、Slack 频道与"对 2500 人说真话"

核心要点:Dario 将约 40% 的时间用于维护 Anthropic 的文化——在一个 2500 人的组织中,他选择的杠杆不是事必躬亲,而是高频率、高透明度的沟通。

  • 每两周一次的全公司"DVQ"(Dario Vision Quest,他曾试图改名未遂——"听起来像我在抽仙人掌"):3-4 页文档,涵盖内部模型进展、产品、行业动态、地缘政治,然后回答问题。大比例员工到场或远程参加。
  • 他在 Slack 上有一个频道,高频写作和评论——回应内部调查中的员工关切,"直接说、承认问题、避免企业腔"。
  • 他观察到其他 AI 公司随着规模扩大出现"退相干"(decoherence)——内部争斗、互相拆台。Anthropic 的差异化在于"让每个人相信其他人也是为了正确的理由在这里"。
  • Daniela(Dario 的妹妹)负责公司日常运营,联合创始人团队和招聘文化共同维系凝聚力。
"有些非常关键的决定,可能就是某人走进我办公室说'Dario,你有两分钟。做 A 还是 B?'我说'我不知道,我得去吃午饭了,做 B 吧。'然后那就是有史以来最重要的决定。" —— Dario Amodei

附录:关键人/机构/产品/数据

| 类别 | 名称 | 备注 |

|------|------|------|

| 人物 | Dario Amodei | Anthropic CEO,前 OpenAI VP of Research |

| | Daniela Amodei | Anthropic 联合创始人兼总裁,负责日常运营 |

| | Dwarkesh Patel | 访谈者,The Lunar Society 主持人 |

| | Rich Sutton | 强化学习先驱,"The Bitter Lesson"作者 |

| | Alec Radford | GPT-1 核心研究者(OpenAI 时期) |

| 机构 | Anthropic | 2500 人,2025 年营收 90-100 亿美元 |

| | Collective Intelligence Project | 与 Anthropic 合作进行 AI 宪法公众调研 |

| | Gates Foundation | Dario 提及其在消灭脊髓灰质炎方面的努力 |

| 产品 / 概念 | Claude Code | Anthropic 编码代理工具,品类领导者 |

| | "大计算团块假说" | Dario 2017 年内部文档,AI 扩展核心论文 |

| | DVQ (Dario Vision Quest) | 每两周全公司通报,3-4 页 |

| | OSWorld | 计算机使用基准,Anthropic 从约 15% 升至 65-70% |

| 关键数据 | Anthropic 营收 | 2023: ~1 亿 → 2024: ~10 亿 → 2025: ~90-100 亿美元 |

| | 行业算力规模 | 2025: 10-15 GW → 每年 3x → 2029: ~300 GW |

| | 每 GW 年化成本 | ~100-150 亿美元 |

| | 编码生产力提升 | 当前 15-20%,六个月前约 5% |

| | AGI 时间线 | 90% 概率 10 年内;50% 概率 1-3 年内 |

| 文章 / 著作 | "Machines of Loving Grace" | Dario 2024 年博文,讨论 AI 如何造福人类 |

| | "The Adolescence of Technology" | Dario 2025 年 50 页长文,讨论 AI 安全与治理 |

| | "The Bitter Lesson" | Rich Sutton 2019 年文章 |