← 返回
48 min 2026-05

Daniela Amodei, Co-Founder and President of Anthropic: Building AI the Right Way

概要

Anthropic总裁Daniela Amodei在斯坦福GSB谈AI安全的激进责任感、创业历程与AI对就业和社会的深远影响

核心洞察

  • Anthropic的AI安全哲学不是"限制能力",而是"激进责任感"(radical responsibility)——从社交媒体公司无意间引发青少年饮食障碍的教训出发,在技术引爆之前预防系统性危害。Anthropic已因网络战争风险暂停发布Mythos级模型(Project Glasswing),即便客户强烈需求。
  • AI目前以互补技能而非替代为主——Anthropic经济指数(81,000人定性调查)显示,仅客服领域出现明显替代。但Daniela坦言"我们不知道未来的具体形态",CEO们已在私下问她"我女儿还该学CS吗"。
  • AI普及率远低于硅谷想象:使用者偏大学学历、偏男性、有种族和财富偏差。全球南方反而最乐观,视AI为"公平化力量";发达国家更焦虑。
  • Claude的商业差异化正在从技术走向价值观——不放广告是基于"AI对话比社交媒体更私密"的刻意选择;注册为公益公司(PBC)是创立之初就确定的架构。Daniela认为"做好事与做好生意"的张力正在消解,这一代创始人越来越多地将两者融合。
  • 贯穿全场的核心线索:Daniela从自己的文学背景到全球健康到Capitol Hill到硅谷的每一次转折,都遵循同一个决策框架——"兴趣×能力×影响力"的交集。这个框架同样驱动了Anthropic的创立、AI安全哲学、以及她对AI未来的判断:技术本身不是目的,人的福祉才是。

从文学学位到AI创业:好奇心与影响力驱动的跨界人生

核心要点:Daniela的职业路径看似随机实则一致——每次转折都是在"兴趣×能力×影响力"的交集处做选择。

  • 2009年毕业于文学专业——"我有一个文学学位,没有任何技能。谁会雇我?"——恰逢金融危机,起点并不光鲜。
  • 第一份职业方向是国际发展和全球健康,驱动力是"世界上有人出生就没有食物、水和药物,这不公平"。虽然后来不再直接做这个领域,但这段经历奠定了"做有意义的事"的底层价值观。
  • 在Capitol Hill和竞选团队工作后,发现"一小群年轻、拼命的人确实能改变世界"——这一认知最终把她引向硅谷,因为创业公司有同样的模式但"钱多得多,也没那么苦"。
  • 加入Stripe时公司只有约40人,在那里待了近6年。Capitol Hill的朋友们说"你走了去做什么?支付?"——现在回看当然是好决定,但当时看起来很疯狂。
  • 自认为是"通才"——"如果你看我的履历,你会说'这位女士到底擅长什么?'她没有法学学位,也不是计算机科学家。"但她认为好奇心、跨学科学习能力、以及想要产生影响的驱动力是被低估的品质。
"I really think of myself as a generalist. If you look through my background, you would be like, 'What is this lady actually good at?'" —— Daniela Amodei

2018年加入OpenAI:技术门外汉如何找到自己的位置

核心要点:学会"技术语言"的关键不是天赋,而是不怕问问题+明确自己的比较优势。

  • 2018年加入OpenAI时,研究团队在讨论神经网络、transformer和scaling laws。Daniela的两个"预训练":Stripe六年的工程师协作经验,以及从小和物理学家兄弟Dario一起长大。
  • 核心心法:"不要害怕技术。术语和行话一开始确实让人overwhelm,但只要你不停提问,只要身边有人愿意耐心回答——我很幸运有这样的人——你最终能理解。"
  • 知道自己的lane:"我大概训练不了GPT,当然也训练不了GPT-2或GPT-3。但我带来了他们不擅长的东西。"理解自己的比较优势并融入更大的生态系统,需要人际技能和好奇心。

创立Anthropic:七人"跑向"一个愿景,而非"逃离"一家公司

核心要点:Anthropic的创立不是对OpenAI的否定,而是对"安全+责任+商业"如何共存的一次从零开始的实验。

  • 2020年12月,7位联合创始人离开OpenAI。Daniela强调"我们是跑向(running towards)某个东西,而不是逃离(running away)某个东西"。
  • 核心愿景:创建一个将安全和责任置于最前沿的组织。7个人在OpenAI都同时涉猎能力研究、安全研究和政策工作,但觉得在新公司里更容易实现这个愿景。
  • 选择注册为公益公司(PBC)花了不少时间——这是一个刻意的架构选择:承认AI会创造巨大经济价值,但坚持"以正确的方式做这件事"。
"We're running towards something versus running away from something. We have this vision of wanting to create an organization where the values that matter to us around safety, around responsibility, were the forefront of what we were doing." —— Daniela Amodei

联合创始人关系:40年兄妹默契+"先去度假再创业"

核心要点:联合创始人关系的核心是"你们画的是同一张图",而验证方式出人意料地朴素——一起旅行、共住一间房。

  • 和Dario"吵架然后和好"已经练了近40年——"因为他是我哥,我小时候偷过他的玩具。"无论怎么冲突,都确定最终还是会爱对方。
  • 7位创始人之间有深厚的历史基础:认识Jared 15年,认识Chris 15年;Tom和Sam曾是室友;Jared和Sam在Stanford读PhD时共事。全部创始人都曾在OpenAI向Daniela或Dario汇报。
  • Daniela的"联合创始人测试":如果你和你的联合创始人各自锁在一间房里,画出你们想要构建的东西——走出来时"一个人画了独角兽,另一个人画了鸭嘴兽",那就不会有好结果。
  • 终极建议:"别急着创业,先一起去度假。分享一间房间。如果结束后你的感觉是'天呐我只想花更多时间跟你在一起',太好了。如果你需要'一个假期来从假期中恢复'——那可能是错误的选择。"

AI安全=对技术的"激进责任感"——社交媒体的教训与Mythos模型管控

核心要点:AI安全不是限制技术,而是利用"后发优势"——在前一代技术公司犯过的错误上学习,在问题爆发前预防。

  • Daniela将AI安全定义为"对我们开发的技术承担一种激进的责任感(radical responsibility)"。
  • 社交媒体类比:Facebook/Instagram/Snapchat/Twitter的创建者并不是故意要"引发青少年饮食障碍大流行",但他们只优化增长指标而没有预想后果。AI公司的"特权"在于可以从这些教训中学习——"我们可以说'你们犯了这个错误,我们不会再犯'。"
  • 安全工作的具体范围:防止化学和生物武器开发、网络战争防御、用户健康、儿童安全、虚假信息和选举诚信。
  • Mythos级模型事件:Anthropic最近因网络战争潜力决定不发布Mythos级模型(Project Glasswing)。客户反应:"我们都相信网络防御,但我真的很想用那个模型。"Daniela的回应是回归使命——"我们理解那个渴望,但在我们确信所有必要的安全补丁都完成之前,发布是不负责任的。"
"We're able to say, 'You guys made this mistake. We are not gonna make that mistake this time.' That is a huge privilege." —— Daniela Amodei

安全与商业的张力在"时间"而非"方向"

核心要点:企业客户不想要不安全的模型——"没有企业说'希望Claude多产生一些幻觉'"——但随着模型能力急速进化,安全评估所需的时间正在成为真正的摩擦点。

  • Anthropic收入的大部分来自企业客户(businesses),而企业天然风险厌恶——他们不想要不可预测或不可靠的AI技术。在很长一段时间里,安全与商业100%对齐。
  • 但现在进入了一个新阶段:模型能力发展太快,张力变成了"时间"——不是模型不能做amazing的事,而是"我们还没完全理解风险有多严重",需要更多时间做安全工作。
  • Glasswing的决定"不舒服"——"告诉客户这件事很不舒服。他们说'我真的很想用那个模型'。"但Anthropic选择承受这种不舒服。

AI与就业:目前互补为主,但"没人知道未来的具体形态"

核心要点:Anthropic经济指数(81,000人定性调查)显示AI目前主要是"工作的赋能者"而非替代者,唯一明显的例外是客服——"如果你要给Comcast发邮件,可能永远不会再是人类回复了。"

  • 81,000人定性调查(Anthropic称这是已知最大规模的此类研究)显示:AI使用目前主要表现为互补技能(complementary skills),只有极少数情况出现替代,主要是客服领域。
  • CEO的焦虑已从会议室蔓延到家庭:CEO们在商务会议聊到三分之二时,会"阴谋般地"倾身过来说——"我女儿在Stanford读大二,她本来打算学CS,她还应该学计算机吗?"
  • Daniela的判断:软件开发者仍会存在,但"不会写那么多代码了"——开发者大量的时间花在与产品经理沟通、理解客户需求上,这些工作会扩展;能被AI轻松完成的部分会收缩,但整体将创造一个"全然不同的可能性范围"。
"A CEO will conspiratorially lean across the table and say, 'My daughter is a sophomore at Stanford. She was gonna be a CS major. Should she not major in computer science?'" —— Daniela Amodei

AI普及率远低于硅谷想象:全球南方最乐观,发达国家最焦虑

核心要点:硅谷以为所有人都在用AI,但现实是使用者偏大学学历、偏男性、存在种族和财富偏差——而全球南方反而最乐观,视AI为"公平化力量"。

  • Anthropic数据显示:AI使用存在显著的人口统计学偏差——偏大学学历、男性多于女性、与种族和财富相关。即使在美国,很多人还不知道如何高效使用AI工具。
  • 有趣的反差:发展中国家对AI"几乎普遍乐观"——"这是我们的时刻,也许能有一个公平化的力量让事情变得更公平"。但美国、欧洲和部分亚洲地区更焦虑——"我喜欢现在这样,不希望AI来打破。"
  • Daniela的判断:"我们其实还在比赛的起跑线上——发令枪刚响。"仍有大量机会积极塑造这项技术的使用方式、准入方式和内嵌的价值观。

"关掉大脑"的诱惑与Claude学习模式

核心要点:81,000人调查揭示了AI时代最需警惕的认知风险——不是AI不好用,而是太好用导致人们"关掉大脑";Claude学习模式是Anthropic对这一问题的产品级回应。

  • 调查中有一类独特的感受("可能有一天会有一个专门的词来形容"):不是像刷手机那种感觉,而是"我本来可以去想这个问题,但不想就太容易了——直接信任AI给的答案。"Daniela认为这是AI焦虑的真正源头。
  • 两种使用方式的对比讲得很生动:一种是把作业丢给ChatGPT——"有一个词来形容这种行为,叫作弊(cheating)"(全场笑);另一种是用Claude学习模式——"就像你有一个个性化的教授,了解你、理解你最想学什么,帮你走出困境。"
  • 行业层面的选择:Daniela希望整个行业选择"让人变聪明"而非"让人关掉大脑"的方向。

人际技能将五倍升值——医生"床边态度"的启示

核心要点:当AI能完成大部分诊断工作时,医生的"床边态度"(bedside manner)将变得比现在重要五倍——这个逻辑适用于所有依赖人际交互的职业。

  • 今天我们雇医生主要看诊断能力——"这里可能出了什么问题,最可能是哪个,让我做些检查。"AI很快就能做到这一点。
  • 但AI做不到的是"看着你、检查你、理解你的感受、让你感觉好一点"。有医学文献表明:与医生关系好的患者,临床结果更好。可能的原因是医生会"多费心去理解你的情况,多跑一组意料之外的检查"。
  • Daniela的推断:在AI能完成诊断工作的世界里,"床边态度"的重要性将是现在的五倍——因为你不再需要把它挤进医生需要具备的七种素质之一。

用Claude当管理教练和育儿顾问

核心要点:Daniela自己最有感触的Claude使用场景不是写代码,而是做管理和带孩子——"人人觉得AI不会来抢自己的工作,因为自己太特别了。我也犯了这个错。"

  • 管理教练场景:Daniela上传3-4年的绩效review数据,Claude帮她发现她自己看不到的模式——"你们在这个问题上已经绕了三四年了,也许需要额外的coaching。"反方向也有用:上传下属对自己的上级反馈,Claude会"非常友好地说:'看起来你在这个方面过去一年没有改进。也许你需要额外的coaching,Daniela。'"
  • Daniela承认自己有"每个人都觉得AI不会替代自己"的心理——"我想的是'人们喜欢人类。他们会想向我汇报,不会想向Claude汇报,对吧?'"——但发现Claude确实是强大的管理辅助工具。
  • 育儿场景:两个孩子(快5岁和快1岁),Claude帮助她度过了厕所训练——"Claude做过的最棒的事就是帮我度过厕所训练。那不是一段愉快的经历,但Claude让它好了一点——有共情,非常可操作,还有一些图表。"
  • 对AI辅助育儿的判断:每次Google"你的孩子是不是有什么问题",答案都是"是"。Claude更有分寸,更能互动,对不知所措的家长特别有用。

AI泡沫:资本支出风险是真实的,但收入增长在VC历史上前所未有

核心要点:在"估值泡沫vs基建过度投资vs技术进步可持续性"三种含义中,Daniela认为最值得关注的是资本支出风险——这是一个对未来的巨额赌注,如果收入增长逆转就会出问题。

  • AI是高资本支出业务:训练模型需要大量算力,算力供不应求,价格持续上涨。企业必须提前很久购买算力——"本质上是在对未来下注"。
  • 坦率承认不确定性:"在这些公司工作有点让人心惊——你在做一个精心计算的赌注,赌你能在未来还上这些钱。"除了Google因体量足够大之外,Anthropic和OpenAI都面临这个挑战。
  • 乐观面:两家公司的收入增长"不可思议"——VC界的共识是"从来没见过这样的事,很难想象一家公司能在这么短的时间内达到这样的收入数字"。
  • 但Daniela坚持风险真实存在:"如果这个趋势有一天改变了,就会出问题。这些公司为未来买了很多算力,非常贵。归根结底这是一个赌注——我们当然认为赌对了,但我们绝对可能是错的。"

AI监管与数据隐私:Claude不放广告是刻意选择

核心要点:Daniela主张技术公司和监管者"手拉手"合作——因为AI公司看得到技术被滥用的实时数据,监管者知道如何建立可执行的框架——最怕的是这个议题被政治化。

  • 监管立场:支持"合理的监管(sensible regulation)"作为AI故事的一部分,但反对"监管好vs创新好"的二元对立。有些监管领域确实没意义,但有些"绝对关键"。
  • 最大的担忧是政治化:"我最大的期望是这个对话不要被政治化——但我担心这已经发生了。"
  • 数据隐私上的具体行动:Claude不放广告,原因是"人们和AI工具的对话比他们在Instagram上发的内容更私密"。这是一个基于价值观的商业决策。
  • 医疗数据场景:Claude最常见的消费级使用场景之一是问医疗问题。Daniela自己的经验是"Claude在复杂医疗案例上比我的医生更准",但她强调"绝对不要不经专业医疗人员确认就按AI说的做"。

附录:关键人/机构/产品/数据

| 项目 | 详情 |

|------|------|

| Daniela Amodei | Anthropic联合创始人兼总裁,Dario Amodei的妹妹,英国文学专业出身 |

| Dario Amodei | Anthropic联合创始人兼CEO,Daniela的哥哥,物理学家背景 |

| Anthropic | AI安全公司,注册为公益公司(PBC),7位联合创始人于2020年12月创立 |

| 联合创始人团队 | Daniela、Dario + Jared、Chris、Tom、Sam + 第7人(未具名) |

| Stripe | Daniela入职时约40人,她待了近6年(约2012-2018) |

| OpenAI | Daniela 2018年加入,2020年12月离开 |

| Project Glasswing | Anthropic的Mythos级模型,因网络战争风险暂停发布 |

| 经济指数 | Anthropic发布的AI使用调查,81,000人定性调查,为已知最大规模 |

| Claude学习模式 | 教育场景产品功能,引导学生思考而非直接给答案 |

| The Guns of August | Daniela推荐的书,关于一战起源中个体人物和性格的角色 |

| Sparrow Systems | Anthropic差点使用的公司名 |

| 81,000人 | Anthropic定性调查的规模,涵盖Claude和其他AI工具用户 |