← 返回
103 min 2025-03

Jensen Huang – Will Nvidia's moat persist?

概要

NVIDIA CEO Jensen Huang深度解析加速计算护城河、AI基础设施投资逻辑、Scaling Laws的持续性以及与中国竞争的战略思考

"电子到 token":NVIDIA 的自我定义不是芯片公司

核心要点:Jensen 将 NVIDIA 的价值主张重新定义为"电子到 token 的转化",而非传统意义上的芯片设计。公司的经营哲学是"做尽可能多但不做不必要的事"(as much as needed, as little as possible),不做的部分交给生态伙伴。

  • 访谈以一个尖锐的问题开场:软件公司估值因 AI 商品化预期而暴跌,NVIDIA 本质上是把 GDS2 文件发给台积电、台积电制造、ODM 组装——既然 NVIDIA 做的是"软件",那软件被商品化时 NVIDIA 会不会也被商品化?Jensen 接住了这个问题,将其转化为自己对公司的定义:"输入是电子,输出是 token,中间是 NVIDIA。"
  • 他用了一个类比:让一颗 token 比另一颗更有价值,就像让一个分子比另一个分子更有价值——其中包含的工程、科学和"artistry"(匠心)远未被充分理解,"这段旅程还远未结束"。
  • AI 是一个"五层蛋糕"(five-layer cake),NVIDIA 在每一层都建立了生态。公司的原则是:自己不做的事就让合作伙伴做,构成生态的一部分。但"我们必须做的部分,事实证明极其困难——我不认为这会被商品化。"
  • 关于软件公司的命运,Jensen 持反直觉的乐观观点:agent 数量会指数级增长,"工具使用者"也会指数级增长。Synopsys Design Compiler、版图工具、DRC 的实例数会暴增——因为今天受限于工程师数量,明天工程师会被大量 agent 辅助。"软件公司还没爆发的原因只有一个:agent 还不够善于使用工具。"
"The input is electrons, the output is tokens. In the middle is Nvidia. Our job is to do as much as necessary and as little as possible to enable that transformation." —— Jensen Huang

摩尔定律已死,架构创新驱动 50 倍性能飞跃

核心要点:Jensen 多次强调传统晶体管微缩已无法支撑 AI 所需的性能增长,Hopper 到 Blackwell 的 50 倍提升中,来自摩尔定律的贡献仅约 75%(三年),其余全靠架构和算法创新。

  • Blackwell 相对 Hopper 的能效提升一开始公布为 35 倍,分析师 Dylan Patel 撰文指出 Jensen "sandbagged"(保守了),实际是 50 倍。Jensen 在访谈中引用这个细节来论证:这不可能仅靠摩尔定律实现。
  • 摩尔定律每年仅推进约 25%。要实现 10x-100x 的飞跃,唯一途径是"每年从根本上改变算法和计算方式"——例如 MoE(混合专家模型)实现并行化、分解和分布式计算。
  • NVIDIA 的"极致协同设计"(extreme co-design)能力是关键差异化:可以将计算卸载到 NVLink 互联结构甚至 Spectrum-X 网络中,同时在处理器、系统、互联、库和算法五个层面做优化。"没有 CUDA 来做这件事,我都不知道从哪里开始。"
  • NVIDIA 的产品节奏像时钟一样精准:今年 Vera Rubin,明年 Vera Rubin Ultra,后年 Feynman,再后面还有一代尚未公布名称。Jensen 挑战所有竞争对手:"你去全世界找一个 ASIC 团队,能让你赌上全部身家,确信他们每年都会出现,token 成本每年下降一个数量级。"
"Between Hopper and Blackwell, from the transistors themselves, call it 75%. It was three years apart, 75%. Blackwell is 50 times Hopper. My point is, architecture matters. Computer science matters." —— Jensen Huang

GPU vs TPU/ASIC:可编程性才是真正的护城河

核心要点:Dwarkesh 从多个角度挑战 NVIDIA 的 GPU 架构相对 TPU 的竞争力——"AI 不就是可预测的矩阵乘法吗?" Jensen 的回应核心是:矩阵乘法很重要但不是全部,AI 的快速演进恰恰需要可编程性来支撑算法创新。

  • Dwarkesh 转述 AI 研究者朋友的观点:"TPU 是一个巨大的脉动阵列,完美匹配矩阵乘法;GPU 很灵活,适合分支和不规则内存访问——但 AI 就是可预测的矩阵乘法。"Jensen 直接反驳:如果你想发明新的注意力机制、创造混合 SSM 架构、或融合扩散和自回归技术,你需要通用可编程架构。
  • CUDA 生态的三大护城河:(1)丰富性——支持每种框架,包括 Triton(NVIDIA 是其后端的主要贡献者)、vLLM、SGLang,以及 verl、NeMo RL 等新兴强化学习框架;(2)安装基数——数亿块 GPU 分布在所有云和各种设备中,从 A10 到 Blackwell,从数据中心到机器人;(3)全云覆盖——"我们在每一朵云里",包括 Google、Amazon、Azure、OCI。
  • Jensen 发起了一个公开挑战:Dylan 的 InferenceMAX 基准测试"摆在那里让所有人用,TPU 不来、Trainium 不来。我欢迎 Trainium 来证明他们声称的 40% 优势。我很想看到有人证明 TPU 的成本优势。在第一性原理上,这说不通。"
  • 关于超大客户是否需要 CUDA:Jensen 承认大型 AI 实验室会写自己的 kernel(OpenAI 有 Triton,编译到其他加速器),但 NVIDIA 派驻的工程师团队规模"insane",与 AI 实验室深度合作优化。"我们帮伙伴把模型提速 2-3 倍是常事——当你的 Hopper/Blackwell 机群规模已经很大时,2 倍提速直接翻译为 2 倍收入。"
  • NVIDIA 将 GPU 比作 F1 赛车,而非凯迪拉克巡航车——所有人都能开到 100 英里/小时,但"要把它推到极限需要相当的专业知识"。NVIDIA 大量使用 AI 来生成自己的 kernel。
"If you want to come up with a new attention mechanism, disaggregate in a different way, or invent a whole new type of architecture altogether—like a hybrid SSM—you want an architecture that's generally programmable." —— Jensen Huang

供应链瓶颈:CoWoS、HBM 与"瓶颈预取"战略

核心要点:NVIDIA 应对供应链瓶颈的策略不是被动等待,而是提前数年"预取"(prefetch)瓶颈——通过直接说服上游 CEO、投资关键环节、甚至将自有技术专利开放给供应链。

  • Dwarkesh 提出尖锐的数学问题:NVIDIA 已经是 TSMC N3 节点最大客户,AI 整体今年占 N3 的 60%、据 SemiAnalysis 预测明年将达 86%——"你已经是多数了,怎么还能每年翻倍?"Jensen 的回答:没有一个瓶颈能持续超过 2-3 年。"你能建一台,就能建十台;能建十台,就能建一百万台。"
  • CoWoS 封装是最好的案例:两年前它是最大的产能瓶颈,"我们在上面疯狂加倍、再加倍、再加倍"。现在台积电已经把 CoWoS 和未来封装技术的产能扩张与逻辑和内存同步。"CoWoS 和 HBM 曾经是特种技术,但它们已不再是特种——它们已是主流计算技术。"
  • Jensen 对供应链的管理远不止下单采购。他与 Micron CEO Sanjay Mehrotra 的早期会面至今记忆犹新:"我清楚地告诉他未来会发生什么、为什么会发生",Micron 在 LPDDR 和 HBM 上"真正 doubled down",结果对公司产生了巨大回报。光互联方面,NVIDIA 与 Lumentum、Coherent 以及硅光子生态合作多年,"重塑了整个供应链"。
  • GTC 大会被 Jensen 定位为供应链教育工具:不只是产品发布,更是让上下游互相看见、让所有人亲眼见证 AI 的进展。"有人总说'Jensen,大多数 keynote 是一个发布接一个发布'。我们的 keynote 总有一部分几乎像教育——事实上,这正是我脑子里想的。"
  • 最让 Jensen 担心的瓶颈不是芯片或封装,而是下游的能源政策。"你无法在没有能源的情况下创建一个新产业。我们想让芯片制造回到美国、想建 AI 工厂、想造机器人——没有能源,这些都不可能。"
  • 当被问到最难扩展的瓶颈时,Jensen 的回答出人意料:"水管工和电工。"他补充:"我把水管工们也请来了明年的 GTC。"——全场最幽默的瞬间之一。当 Dwarkesh 说"有些嘉宾告诉我情况完全相反"时,Jensen 不客气地说:"好在你现在跟专家在说话。"
"People aren't talking very much about CoWoS anymore. The reason for that is because for two years we swarmed the living daylights out of it. We doubled, doubled, doubled on several doubles." —— Jensen Huang

中国出口管制:Jensen 与 Dwarkesh 最激烈的正面交锋

核心要点:这是全场最长、火药味最浓的一段对话。Dwarkesh 以 Anthropic 的 Mythos Preview 模型(发现了 OpenBSD 中存在 27 年的零日漏洞)为起点,论证"计算就是武器";Jensen 则从 AI 五层栈、中国实际算力储备、美国芯片产业利益三个维度反复反击。两人来回交锋十余轮,各自立场鲜明,最终未达成共识。

  • Dwarkesh 的进攻线:Anthropic 的 Mythos Preview 发现了"每个主要操作系统、每个浏览器"中的数千个高危漏洞,包括 OpenBSD 中一个存在 27 年的零日漏洞。如果中国 AI 实验室用出口的计算训练出同级能力的模型并大规模部署推理,"难道这不是武器?"他多次追问:更多算力 = 更强模型 = 更强网络攻击能力,"任何边际计算都有帮助"。
  • Jensen 的核心反击:(1)Mythos 是"用相当普通的算力和相当普通的规模训练出来的",中国已经拥有足够的算力来做同样的事;(2)中国制造全球 60% 的主流芯片,拥有 50% 的 AI 研究人员,是全球最大的开源贡献者——"认为中国不会拥有 AI 芯片是彻头彻尾的无稽之谈";(3)华为刚创下了公司历史上最大单年营收,芯片出货量"数百万"——"这比 Anthropic 拥有的还多"。
  • 关于能源和 7nm 制程的辩论最为精彩。Dwarkesh 指出中国被困在 7nm,而 NVIDIA 将推进到 1.6nm(Feynman)。Jensen 的反击出人意料:"中国有多少能源?他们有幽灵城市,也有幽灵数据中心——完全通电但空置。AI 是并行计算问题,为什么不能用 4 倍、10 倍的芯片来弥补?能源免费的时候,你管什么能效比?"他补充:"7nm 芯片本质上就是 Hopper 级别——而今天的模型主要就是在 Hopper 上训练的。"
  • 两人在"类比核武"问题上直接碰撞。Dwarkesh 引用 Dario Amodei 的话("像波音吹嘘卖核弹壳给朝鲜"),Jensen 回应:"把 AI 比作你刚才提到的任何东西都是疯狂的。"Dwarkesh 追问"AI 不是像浓缩铀吗?有和平用途也有军事用途。"Jensen 反击:"我们不是浓缩铀。这是一颗芯片,而且是他们自己能制造的芯片。"
  • Jensen 最后提出了他真正担忧的"反事实":如果美国逼迫 NVIDIA 退出中国市场,中国 50% 的 AI 开发者将转向华为等非美国技术栈。当这些开发者贡献的开源模型针对非美国硬件优化,然后扩散到全球南方、中东、东南亚、非洲时,"美国技术栈将不再是全球标准。这正是电信行业发生的事——美国被政策逼出了全球电信市场,到现在都没有夺回控制权。"
  • Jensen 最终的框架总结:"AI 有五层,每一层都必须赢。你执着于保护一家模型公司,却让芯片这一层丢掉了全球第二大市场。没有人主张无限制出口,但也没有人应该主张绝对管制。这需要成熟和细腻,而不是非此即彼。"
  • Dwarkesh 数次试图让 Jensen 至少承认"边际计算的边际风险",Jensen 始终拒绝在这一框架下让步,反而每次都将讨论拉回"美国芯片产业失去市场的代价"。当 Dwarkesh 说"你难道不能同时承认好处和代价?"Jensen 回应:"我也告诉你代价——让五层栈中最重要的一层之一把全球第二大市场拱手让出,为了一家公司的利益。这说不通。"
"Comparing AI to anything that you just mentioned is lunacy... We're not enriched uranium. It's a chip, and it's a chip that they can make themselves." —— Jensen Huang
"The day that DeepSeek comes out on Huawei first, that is a horrible outcome for our nation." —— Jensen Huang

Anthropic 转 TPU 的内幕:一个"孤例"与 Jensen 的坦诚复盘

核心要点:Anthropic 和 Google 使用 TPU 不是市场趋势,而是一个因 NVIDIA 当年投资缺位导致的特殊结果。Jensen 罕见地公开承认这是自身失误。

  • Dwarkesh 用事实发起挑战:"全球前三模型中有两个——Claude 和 Gemini——是在 TPU 上训练的。"Jensen 的回应很直接:"没有 Anthropic,TPU 的增长在哪里?100% 是 Anthropic。没有 Anthropic,Trainium 的增长在哪里?100% 是 Anthropic。这是一个孤例,不是趋势。"
  • 关于为什么 Anthropic 走到了 TPU 阵营,Jensen 进行了坦诚的复盘:"很久以前,我没有深刻内化建设一个像 OpenAI 和 Anthropic 这样的基础模型实验室有多困难、它们需要来自供应商本身的巨额投资。VC 永远不会往一个 AI 实验室里投 50-100 亿美元。"当时 Google 和 AWS 做了这些投资,换来 Anthropic 使用其算力。"这是我的失误。但即便我理解了,当时的 NVIDIA 也没有能力做这件事。"
  • Jensen 同时为竞争格局做了去焦虑化处理:"我不会因为别人尝试其他东西而生气。如果他们不尝试,怎么知道我们有多好?"关于 OpenAI 构建自研 Titan 加速器和使用 AMD 的报道,他表示:"我觉得我们都可以承认他们绝大部分还是 NVIDIA 的。我们会继续合作。"
  • 关于被取消的 ASIC 项目,Jensen 发出了一个犀利的提醒:"看看有多少 ASIC 已经被取消了吧。做一颗 ASIC 不代表你就能做出比 NVIDIA 更好的东西。这不容易——其实这不明智。"关于 ASIC 的利润率幻觉,他也直接戳破:"NVIDIA 的利润率 70%,但 ASIC 的利润率是 65%。你到底省了多少?"
"Without Anthropic, why would there be any TPU growth at all? It's 100% Anthropic. Without Anthropic, why would there be Trainium growth at all? It's 100% Anthropic." —— Jensen Huang

NVIDIA 不做云:生态投资哲学与"不挑赢家"原则

核心要点:尽管 NVIDIA 拥有充裕现金,Jensen 坚持不做云服务商,而是通过投资 CoreWeave、Nscale、Nebius 等"新云"来扩展生态——但承认如果没有 NVIDIA 的支持,这些公司不会存在。

  • Dwarkesh 追问:NVIDIA 有钱做 CapEx,chip 寿命期内回报丰厚,为什么不自己做云?Jensen 的回答回归公司哲学:"世界上有很多云。如果我不做,会有人来做。所以按照'做尽可能多但不做不必要的事'的原则——云,就属于不必要的。"
  • 但他同时承认了一个微妙的张力:"如果我们不支持 CoreWeave 存在,这些新云就不会存在。如果我们不支持 Nscale,它不会是今天这个样子。"当 Dwarkesh 追问这不是在"碎片化市场"吗,Jensen 否认了任何优先分配的存在:"没有下单,说再多也没用。最终就是先到先得(first in, first out)。"
  • 关于拉里·埃里森和马斯克"求 GPU"的故事,Jensen 当场澄清:"我们确实一起吃了饭,很愉快的晚餐。任何时候他们都没有'恳求' GPU。他们只需要下单。下了单,我们就尽最大努力安排产能。"
  • Jensen 还解释了为什么从不搞拍卖定价:"这是一个坏的商业惯例。你定好价格,人们决定买或不买。我知道芯片行业其他人会在需求高的时候涨价,但我们从不这样做。我更愿意做一个可靠的基石。"NVIDIA 与台积电的关系也是如此:合作近 30 年,没有法律合同,"有时候我占便宜,有时候我吃亏,但整体关系令人难以置信。"
  • "不挑赢家"原则源于 Jensen 自身的创业经历:NVIDIA 创立时有 60 家 3D 图形公司,"如果你问那 60 家里谁最可能活下来,NVIDIA 会排在'最不可能'的榜首——我们创造了一种恰好完全错误的架构。所以我有足够的谦卑。要么照顾所有人,要么让所有人自己照顾自己。"
"When they want to exist and they have a business plan, expertise, and the passion for it... if they need some investment to get it off the ground, we would be there for them." —— Jensen Huang

推理市场分层:高端 token 的崛起与 Groq 收购逻辑

核心要点:推理市场正从"吞吐量至上"分化为多层级定价,NVIDIA 收购 Groq 正是为了占领"高 ASP 快响应 token"这一新兴细分市场。

  • Jensen 透露了 Groq 收购的战略逻辑:过去几年 token 价格要么免费要么极低,不存在差异化定价。但现在出现了新的市场结构——不同客户愿意为不同品质的 token 付费。"如果我能给软件工程师提供响应更快的 token 让他们更高效,我愿意付高价。但这个市场直到最近才出现。"
  • 这意味着推理从"吞吐量越高越好"的单一维度,扩展到包含"快响应、低吞吐"在内的帕累托前沿。"即便工厂的吞吐量更低,高 ASP 也能弥补。这就是我们做这件事的原因。"
  • Groq 将被整合进 CUDA 生态——这不是放弃 GPU 架构,而是在同一生态内增加一个面向特定工作负载的加速器。Jensen 强调:"从架构角度看,如果我有更多钱,我会把更多资源投入 NVIDIA 自己的架构。"
  • 关于为什么不做 Cerebras 式晶圆级计算或 Tesla Dojo 式巨型封装,Jensen 的回答直截了当:"我们可以做所有这些,只是没有更好的想法。我们在模拟器里全模拟过了,证明更差。"
"We now have the ability to have the same model, based on the response time, have different segments. That's the reason why we decided to expand the Pareto frontier." —— Jensen Huang

AI 五层栈:每一层都必须赢

核心要点:Jensen 多次引用"AI 五层蛋糕"框架来论证其多层战略——能源、芯片、计算平台、模型、应用——美国必须在每一层都保持领先,不能为了保护模型层而牺牲芯片层。

  • 五层栈的最底层是能源。"当你有充沛的能源时,它弥补了芯片的不足。当你有充沛的芯片时,它弥补了能源的不足。"这是 Jensen 论证中国算力不可忽视的核心框架:中国能源充沛到可以用 4-10 倍的 7nm 芯片来弥补制程差距。
  • 最重要的一层是最顶层——AI 应用层。"扩散到社会中的那一层,最多使用 AI 的社会将从这场工业革命中受益最多。"但 Jensen 强调每一层都不可偏废。
  • Jensen 用这个框架批评了当前 AI 恐慌论:"如果我们把这个国家吓得以为 AI 是核弹,每个人都恨 AI、怕 AI,那你到底在帮美国什么?"他以放射科为例:十年前有人预言"放射科是第一个消失的职业",结果现在"我们最缺的是什么?放射科医生。"他区分了"工作"和"任务"——"放射科医生的工作是病人护理,任务才是读片。"
  • 同样的逻辑适用于软件工程师的末日论:"如果我们吓得每个人都不去当软件工程师,因为 AI 要杀死所有软件工程岗——结果我们就没有足够的软件工程师了。"
"AI is a five-layer cake. We have ecosystems across the entire five layers." —— Jensen Huang

假如深度学习革命没有发生:加速计算才是根本使命

核心要点:在最后一个问题中,Jensen 回归 NVIDIA 的根本使命——加速计算,并认为即使没有 AI,NVIDIA 仍会非常庞大。

  • Jensen 的回答毫不犹豫:"加速计算——我们一直在做的事情。"通用计算的扩展已基本走到尽头,唯一的出路是领域特定加速。NVIDIA 从计算机图形起步,但分子动力学、地震处理、流体力学、粒子物理、结构化数据处理等都受益于 CUDA。
  • 他特别提到了 GTC 大会的开场部分:"没有一样是 AI。计算光刻、量子化学、数据处理——全部与 AI 无关,但仍然非常重要。张量不是唯一的计算方式。"
  • 但 Jensen 也表示:"如果没有 AI,我会非常难过。"正是因为 NVIDIA 在计算领域的推进,"我们让深度学习民主化了——让任何研究者、科学家、学生都能拿到一块 GeForce 显卡做出惊人的科学。这个根本承诺从未改变过,一丝一毫都没有。"
"Even if AI doesn't exist today, Nvidia would be very, very large. The reason for that is fairly fundamental, which is that the ability for general purpose computing to continue to scale has largely run its course." —— Jensen Huang

附录:关键人/机构/产品/数据

| 项目 | 详情 |

|------|------|

| Jensen Huang | NVIDIA CEO & 联合创始人 |

| Dwarkesh Patel | 播客主持人,全场扮演 devil's advocate |

| Dario Amodei | Anthropic CEO,被引用关于出口管制的"波音卖核弹壳"比喻 |

| Sanjay Mehrotra | Micron CEO,早期被 Jensen 说服在 HBM 上 all-in |

| Dylan Patel | SemiAnalysis 分析师,揭示 Blackwell 实为 50x 而非 35x |

| Anthropic | 被 Jensen 称为 TPU 增长的"唯一"推动力;NVIDIA 已投资约 100 亿美元 |

| OpenAI | NVIDIA 投资约 300 亿美元;有自研 Titan 加速器但"绝大部分仍是 NVIDIA" |

| Mythos Preview | Anthropic 的网络安全模型,发现 OpenBSD 中 27 年历史的零日漏洞,因攻击能力过强未公开发布 |

| Blackwell vs Hopper | 50 倍性能提升(其中晶体管进步仅约 75%) |

| Vera Rubin / Vera Rubin Ultra / Feynman | NVIDIA 未来三年的产品路线图 |

| Groq(收购) | 被纳入 CUDA 生态,面向高 ASP 低延迟推理市场 |

| CoWoS | 台积电先进封装技术,曾是最大瓶颈,经两年"疯狂扩产"已缓解 |

| CUDA 安装基数 | 数亿块 GPU,覆盖所有云和各种设备形态 |

| InferenceMAX | Dylan Patel 创建的推理基准,Jensen 公开挑战 TPU/Trainium 来参与 |

| CoreWeave | NVIDIA 为其 backstop 63 亿美元并投资 20 亿美元 |

| 华为 | 刚创下公司历史最大年营收,芯片出货数百万颗 |

| NVIDIA 采购承诺 | 财报显示近 1000 亿美元,SemiAnalysis 估计达 2500 亿美元 |

| 中国 AI 开发者 | 占全球 50%;中国是全球最大开源软件和开源模型贡献者 |

| AI 占 TSMC N3 | 2026 年约 60%,SemiAnalysis 预测 2027 年将达 86% |

| ASIC 利润率 | Jensen 称约 65%(vs NVIDIA 的约 70%),差距远小于外界预期 |

| NVIDIA 超大客户结构 | 60% 收入来自前五大超大规模客户,但其中大部分是外部客户(非内部使用) |

| NVIDIA 与 TSMC 关系 | 合作近 30 年,无法律合同,基于信任 |