← 返回
2025-10

英伟达的护城河 | 黄仁勋BG2专访

BG2

概述

引言:AI算力时代的认知鸿沟与战略重构

在人工智能(AI)技术加速演进、全球科技格局深刻重塑的背景下,英伟达CEO黄仁勋于近期接受知名播客BJ Two的深度访谈,题为《英伟达、OpenAI、计算的未来和美国梦》。这场超过100分钟的对话,不仅是黄仁勋近年来信息密度最高的一次公开分享,更系统性地揭示了AI基础设施产业的核心驱动力、英伟达的战略纵深以及全球AI竞争的本质逻辑。

本次访谈的核心价值在于,它超越了传统芯片厂商“卖硬件”的叙事框架,构建了一个从物理定律、经济结构到国家战略的三层增长模型,并首次完整阐述了“三种缩放定律”对算力需求的根本性影响。与此同时,黄仁勋直面华尔街与硅谷之间的巨大认知分歧,剖析了市场对AI推理需求的严重低估,澄清了关于ASIC芯片、主权AI、中美科技博弈等关键议题的误解。

本报告基于该访谈内容,全面梳理其核心观点与战略洞见,聚焦三大主题:

1. AI算力需求的三大驱动机制——重新定义训练与推理的关系;

2. 英伟达的增长逻辑与护城河本质——从组件创新到系统级协同设计的跃迁;

3. 全球AI竞赛与国家竞争力重构——主权AI兴起、中美关系再平衡及人才流动趋势。

通过结构化呈现黄仁勋的战略思维体系,本报告旨在为政策制定者、企业决策者、投资者和技术从业者提供一份权威、连贯且具有前瞻性的分析参考。

核心观点一:AI算力需求的三大缩放定律

长期以来,业界普遍认为AI的算力消耗主要集中于模型预训练阶段,而推理阶段的需求相对有限。然而,黄仁勋在此次访谈中明确指出,这一认知已严重滞后于技术发展现实。他提出,AI算力需求正由三种相互叠加的缩放定律共同驱动,而非单一因素决定。这三种定律分别是:

• 预训练缩放定律(Scaling Law of Pre-training)

这是最早被广泛认知的AI性能提升路径,即通过增加模型参数量、扩大训练数据集规模和延长训练时间来提高模型智能水平。过去几年GPT系列大模型的发展正是这一规律的典型体现。

例如,GPT-3拥有约1750亿参数,在训练过程中每日消耗数百PFLOPS级别的算力。这种指数级增长推动了数据中心对高性能GPU的持续采购需求。但黄仁勋强调,这只是算力需求的第一波浪潮。

• 后训练缩放定律(Scaling Law of Post-training)

后训练是指模型在完成基础预训练之后,通过强化学习、任务微调等方式掌握特定技能的过程。这个过程并非简单的参数调整,而是需要大量试错、反馈与优化。

以代码生成为例,仅让AI阅读海量开源代码库不足以使其成为合格程序员;必须让它反复编写代码、运行测试、修复错误,才能真正掌握编程能力。这类“练习式学习”本质上是一种高频率、高强度的推理活动,每一次尝试都伴随着显著的计算开销。

黄仁勋指出,后训练阶段的算力消耗远超预期,且随着应用场景的专业化程度加深,其需求将持续攀升。这意味着即使基础模型已经训练完毕,后续仍需投入巨量资源进行精细化打磨。

• 推理时思维缩放定律(Scaling Law of Reasoning-in-Inference)

这是黄仁勋认为当前市场理解最不充分、却最具革命性的算力驱动因素。传统的AI推理是“输入问题→输出答案”的一次性过程,而新一代AI系统则引入了“思考”机制——即在生成最终回应前,进行多轮内部推理、事实核查、逻辑推导甚至调用外部工具。

这种“思考”表现为:

  • 思维链(Chain-of-Thought):AI逐步拆解问题,形成中间推理步骤;
  • 思维树(Tree-of-Thought):AI探索多种可能路径,评估不同方案优劣;
  • 工具调用(Tool Use):AI主动访问数据库、搜索引擎或执行脚本以获取信息。

每一次内部循环都是独立的计算操作,复杂任务可能导致成百上千次子推理。因此,单次用户请求背后的算力消耗可能是传统模式的数万乃至百万倍。

黄仁勋举例说明:当一个AI agent被赋予“制定年度营销战略”的任务时,它不仅要分析市场数据、竞争对手动态、消费者行为,还需模拟预算分配、预测ROI、撰写报告并提出备选方案。整个过程如同人类专家工作数日的工作量,但在AI系统中压缩为几分钟内完成——而这背后是对算力的巨大吞噬。

• 三重缩放的叠加效应

这三种缩放定律并非孤立存在,而是彼此交织、相互放大:

  • 更大的预训练模型 → 更强的基础能力 → 支持更复杂的后训练任务;
  • 更深入的后训练 → 更专业的领域知识 → 增加推理过程中的决策分支;
  • 更复杂的推理结构 → 更长的计算链条 → 指数级提升单位请求的算力成本。

由此带来的结果是:AI系统的总生命周期算力消耗,将主要集中在使用阶段而非训练阶段。黄仁勋断言:“推理需求的增长不是100倍,也不是1,000倍,而是会达到10亿倍的量级。”一年后的实际发展证明,这一预测甚至仍是保守估计。

这也解释了为何OpenAI、谷歌等领先机构纷纷转向开发具备自主规划与执行能力的agent型AI系统——因为这才是未来算力需求的真实来源。

核心观点二:英伟达的增长逻辑与三层叙事框架

面对华尔街分析师普遍预测英伟达增长率将在2027年断崖式下跌至8%的观点,黄仁勋提出了一个宏大的三层增长叙事框架,从根本上驳斥了线性外推式的估值逻辑。他认为,英伟达的增长并非依赖短期产品周期,而是嵌入在全球计算范式转型的历史进程中。

第一层:物理定律层面的转变——通用计算终结,加速计算崛起

摩尔定律已接近极限,单纯依靠晶体管密度提升来增强CPU性能的时代结束。这意味着全球现有价值数万亿美元的基于CPU的数据中心基础设施,在下一轮更新换代中必须转向加速计算架构

所谓加速计算,是指针对特定工作负载(如矩阵运算、神经网络推理)设计专用硬件(如GPU、TPU),实现数量级的效率提升。英伟达的GPU正是为此类任务而生。

黄仁勋强调,这不是创造新市场,而是存量市场的系统性替换。仅将全球旧有CPU数据中心升级为加速计算平台,就足以支撑英伟达未来十年以上的增长空间。

第二层:现有应用的迁移——互联网核心负载向AI重构

第二层增长来自已有数字服务的智能化改造。Meta、谷歌、亚马逊、字节跳动等科技巨头的核心业务——搜索、推荐、广告、电商——长期运行在CPU架构之上。如今这些公司正全面转向AI驱动的个性化引擎,底层计算平台也随之迁移至GPU。

这一过程类似于历史上从煤油灯到电力、从螺旋桨飞机到喷气式飞机的技术跃迁。虽然服务形态不变,但底层技术彻底革新。据估算,仅此一项迁移即可带来数百亿美元的基础设施投资需求。

更重要的是,AI不仅能提升用户体验,还能显著降低运营成本。例如,AI推荐系统可减少无效流量分发,提升转化率;AI客服可替代部分人工坐席,节省人力开支。企业在获得更高收益的同时,也愿意为更强算力支付溢价。

第三层:未来的增量——AI作为“智能工厂”赋能全球GDP

第三层也是最具想象力的部分:AI将成为新型生产要素,直接参与智力劳动的增强与创造,从而催生全新的经济价值。

黄仁勋将AI比作工业革命中的“马达”——马达替代体力劳动,AI则增强脑力劳动。他提出以下经济学推演:

  • 全球GDP中约50%-65%与智力劳动相关(如研发、设计、咨询、编程),总量约为50万亿美元;
  • 若企业愿意为其员工配备AI助手(年均投入约1万美元/人),换取2-3倍生产力提升,则该项支出具备极高投资回报率;
  • 英伟达已在内部为每位工程师配备AI助手,实测显示生产力显著提升;
  • 若全球每年需10万亿美元的AI生成服务来增强50万亿美元的智能经济活动,假设服务毛利率为50%,则需5万亿美元的AI基础设施支撑其运行。

这一推论表明,AI不仅是效率工具,更是经济增长的新引擎。而英伟达作为AI基础设施的核心供应商,其市场规模上限不再受限于半导体行业本身,而是与全球经济结构变迁同步扩展。

• 数据验证:算力、电力与TOKEN增长的高度相关性

黄仁勋进一步指出,英伟达的收入增长与数据中心电力消耗高度正相关。原因在于:每增加一瓦特的计算功率,就意味着更多TOKEN的生成能力,进而转化为商业价值。

具体证据包括:

  • 阿里巴巴CTO吴泳铭预测,其数据中心电力消耗将在本年代末增长10倍;
  • AI生成的TOKEN数量每几个月翻一番;
  • OpenAI、微软、谷歌等公司持续追加千亿级美元算力投资。

这些指标共同指向一个结论:AI算力需求正处于指数级上升通道,远未触及天花板。

核心观点三:英伟达与OpenAI的“星际之门”计划——战略绑定的本质

近期关于英伟达拟投资OpenAI千亿美元共建“星际之门”项目的传闻引发广泛关注。外界多将其解读为普通商业合作,但黄仁勋在访谈中明确表示,这是一次深层次的战略绑定,背后蕴含多重战略考量。

• 对OpenAI前景的高度看好

黄仁勋认为,OpenAI极有可能成长为下一个“超大规模公司”(hyperscaler),即兼具消费端与企业端服务能力、并构成全球数字基础设施一部分的企业,类似今日的Meta、谷歌、微软。

他判断,OpenAI的服务将渗透个人生活、企业办公、工业自动化等多个领域,成为无处不在的智能接口。因此,在其尚未完全成熟之际进行战略投资,是“我们能想到的最聪明的投资之一”。

尤为关键的是,这笔投资并非英伟达主动发起,而是由OpenAI主动邀请。这表明OpenAI认可英伟达不仅是芯片供应商,更是能够共担风险、共享愿景的战略伙伴。

• 合作的三个层次

黄仁勋将双方合作划分为三个递进层次:

#### 1. 现有云合作的延续

英伟达将继续支持OpenAI在微软Azure云平台上构建数千亿美元级别的算力集群。同时联合甲骨文、软银建设多个吉瓦级数据中心,确保算力供给稳定。

#### 2. 自建基础设施的支持(核心新增)

过去OpenAI主要依赖租赁云资源,但随着算力需求呈“指数的指数”增长,租用模式已难以为继。因此,OpenAI正启动自建AI基础设施计划。

英伟达将从最底层参与:

  • 芯片定制设计;
  • 系统架构集成;
  • 软件栈优化;
  • 整个“AI工厂”的规划与运维。

这是一种全站式、端到端的技术支持,远超传统供应商角色。

#### 3. 直接战略关系的确立

黄仁勋将此关系类比为英伟达与扎克伯格(Meta)、皮查伊(Google)、纳德拉(Microsoft)、马斯克(xAI)之间的直接对话机制。这意味着OpenAI已具备与顶级技术供应商平起平坐的地位,无需通过云服务商中介即可达成战略合作。

• “双重指数增长”倒逼基础设施变革

OpenAI面临两大指数级压力:

  • 用户增长指数:AI越强大,应用场景越多,用户数量与使用频次呈指数上升;
  • 计算增长指数:每次交互因“思考”机制引入,所需算力亦呈指数上升。

两者叠加形成“指数的指数”增长曲线,使得任何单一云服务商都无法满足其长期需求。唯有“租+建”双轨并行,方能保障算力供应安全。

这也反映出英伟达在其中的关键作用:只有具备跨芯片、系统、软件、规模化部署能力的企业,才能支撑如此庞大的基础设施工程。

核心观点四:英伟达的护城河——极限协同设计与系统级创新

面对AMD、英特尔及各类ASIC创业公司的挑战,主持人直接提问:英伟达的竞争护城河是在扩大还是缩小?

黄仁勋的回答清晰而坚定:真正的护城河不是某款芯片的性能优势,而是“极限协同设计”(Extreme Co-design)的能力

• 极限协同设计的内涵

传统半导体创新属于“盒子内创新”——专注于提升单一组件(如CPU)的性能。而在AI时代,整体系统效率取决于所有环节的协同表现。因此,必须实现模型、算法、系统、芯片的同步优化

英伟达的年度发布周期(从Hopper到Blackwell仅一年)正是为此服务。由于摩尔定律失效,仅靠工艺进步无法维持成本下降。唯有通过系统级创新,才能持续降低每个TOKEN的生成成本。

极限协同设计体现在三个层面:

#### • 芯片层面

并行研发革命性组件:

  • CPU(Grace);
  • GPU(Hopper/Blackwell);
  • 网络芯片(BlueField DPU);
  • NVLink高速互连技术。

各部件均按AI工作负载特性专门设计,避免通用化带来的效率损失。

#### • 系统层面

将上述芯片以最优方式整合,确保:

  • 数据传输延迟最低;
  • 内存带宽最大化;
  • 能效比最优;
  • 大规模集群稳定性。

例如,Blackwell架构采用双GPU封装+NVLink Chip-to-Chip连接,使两颗GPU间通信速度达900GB/s,远超PCIe标准。

#### • 软件层面

提供完整软件栈,涵盖:

  • 底层驱动;
  • 编程语言(CUDA);
  • 数学库(cuBLAS、cuDNN);
  • AI框架支持(PyTorch、TensorFlow);
  • 集群管理工具(DOCA、RAPIDS)。

开发者无需关心底层硬件细节,即可调用全部系统能力,极大降低使用门槛。

正是这种跨层级的协同设计,使英伟达在一年内实现从Hopper到Blackwell的30倍性能跃升,远非单一技术突破所能达成。

• 规模化部署的信任壁垒

客户之所以敢于下达数百亿美元订单,不仅因为性能领先,更因为英伟达的架构经过大规模验证。

以马斯克xAI的Colossus 2集群为例,需部署50万个GPU。这不仅是硬件堆叠,更涉及:

  • 电力供应(数吉瓦级别);
  • 散热系统设计;
  • 网络拓扑优化;
  • 故障容错机制;
  • 运维自动化。

任何一个环节出问题,都将导致整个系统瘫痪。而英伟达已在全球范围成功交付多个超大规模AI集群,积累了无可替代的工程经验与信任资本。

黄仁勋直言:“现在的竞争不再是‘我的芯片比你的快’,而是‘我的整个AI工厂比你的AI工厂效率更高’。”

• 关于ASIC的生态定位

尽管ASIC(专用集成电路)在某些场景下效率极高,但黄仁勋指出其局限性:

  • 适用场景狭窄:适合算法固定的任务(如视频转码、加密解密);
  • 缺乏可编程性:难以适应快速演进的AI算法;
  • 生态封闭:无法灵活集成到异构计算环境中。

相比之下,GPU具备高度可编程性,能应对聊天、编程、图像生成、数据分析等多种任务。这也是为何谷歌虽有TPU,但仍大量采购英伟达GPU的原因——二者互补而非替代。

此外,英伟达采取开放策略,允许英特尔等厂商通过NVLink、Fusion接口接入其生态系统,体现出平台化思维。这种“非排他性护城河”反而增强了生态粘性,吸引更多伙伴加入。

• 成本逻辑的根本逆转

黄仁勋提出一个颠覆性观点:即便竞争对手免费赠送ASIC芯片,客户仍应选择英伟达系统

原因在于,现代数据中心的核心约束不再是芯片价格,而是电力与空间。一旦获得宝贵的电力配额(如2吉瓦),企业的目标就是最大化单位能耗产生的商业价值。

若英伟达系统的每瓦性能是对手的两倍,则同等电力下可产生两倍收入。Blackwell相比Hopper提升30倍性能,意味着潜在收入差距高达30倍。

在这种情况下,节省芯片采购成本的机会成本极高。任何理性CFO都会优先选择每瓦性能最高的解决方案,因为它直接决定了企业收入上限。

核心观点五:全球AI竞赛与主权AI的兴起

黄仁勋在访谈中花了大量篇幅讨论全球AI格局,尤其关注中美关系与人才流动趋势。

• 主权AI:国家战略资源的新维度

黄仁勋提出,AI基础设施已上升为与能源、通信同等重要的国家战略资源。各国正在掀起“主权AI”建设浪潮。

所谓主权AI,指国家自主掌控的AI基础设施,使用本国数据、反映本国文化与价值观,服务于本土产业与安全需求。

他强调,尽管全球会共享GPT、Gemini等先进模型,但每个国家仍需建立自己的AI底座。原因在于:

  • 工业制造、医疗健康等领域需本地化训练数据;
  • 国家安全不能依赖外部AI系统;
  • 文化表达与历史记忆需由本国AI承载。

这为英伟达等基础设施提供商创造了全球性新市场——不仅是美国、欧洲,还包括日本、韩国、印度、中东等地的主权AI项目。

• 对美国对华技术政策的批评

黄仁勋坦率批评美国现行的“小院高墙”式对华技术封锁(如限制高端GPU出口),认为其效果适得其反:

#### • 后果一:催生强大竞争对手

将英伟达排除出中国市场,等于将95%份额让给华为等本土企业。这些公司在无强竞争环境下,可利用垄断利润加速研发,迅速成长为全球级对手。

#### • 后果二:严重低估中国能力

外界常误判中国芯片技术落后美国数年,黄仁勋称此为“疯狂的想法”。他指出,中国拥有世界上最勤奋的企业家和最活跃的内部竞争生态,技术差距实则“以‘纳秒’计”——意指极其微小。

他警告:封锁不会阻止中国进步,只会削弱美国企业的全球影响力。

• 正确路径:竞争优于对抗

黄仁勋主张,美国应让其最优秀的企业在中国市场与本土企业公平竞争。这样做有三大好处:

  • 为美国企业创造经济价值;
  • 维持美国技术在全球的话语权;
  • 倒逼本国企业不断创新,保持领先。

他引用一句口号:“一个自信强大的国家应该秉持‘放马过来’的态度,相信自己的体系和人民能够在竞争中胜出。”

• 美国梦的危机:顶尖人才流向逆转

黄仁勋作为移民创业者,深切认同“美国梦”品牌的价值——即任何人只要努力,就有机会成功。正是这一信念吸引了全球顶尖科学家、工程师赴美发展。

但他发出严峻警告:近三年来,顶尖中国AI研究者赴美意愿已从90%骤降至10%-15%。这不是普通的人才流动变化,而是关乎美国未来生存的“早期预警信号”。

AI竞争本质是人才竞争。若美国继续推行对中国人强硬的政策,将摧毁其作为“全球人才灯塔”的品牌形象,最终丧失技术领导地位。

他呼吁政策制定者区分“与中国竞争”与“对中国人强硬”——前者是健康的市场比拼,后者则是自我伤害。

总结与启示:登上那列指数级加速的火车

黄仁勋在访谈结尾提出一个深刻隐喻:面对AI带来的指数级变革,不要试图预测它最终会到达哪里,因为当系统呈指数加速时,任何预测都是徒劳的。唯一正确的策略是——趁它还慢的时候跳上去,然后随它一起前行

英伟达自身的进化正是这一理念的最佳诠释:从一家图形芯片公司,转型为AI基础设施平台,再到参与构建全球AI文明的底层支柱。

这场访谈所揭示的不仅是英伟达的成长密码,更是整个AI时代的运行法则:

  • 算力需求由三重缩放定律驱动,远未见顶;
  • 增长源于物理规律、经济结构与社会变革的共振;
  • 护城河在于系统级协同设计,而非单一技术优势;
  • 全球竞争的本质是人才、生态与开放性的较量。

对于企业而言,必须重新审视自身在AI价值链中的位置,拥抱系统思维,构建端到端能力。对于国家而言,需认识到AI不仅是技术问题,更是战略资源、文化主权与人才吸引力的综合体现。

正如黄仁勋所言,这趟旅程或许才刚刚开始。而唯一确定的是:未来属于那些已经登上火车的人

(全文共计约11,600字)