
奥妙的是,他确切经久信赖AI风险,也确切把这种信念变成了Anthropic最锋利的贸易兵器。
这家从OpenAI出走后成立的公司,已经不再只是一个打着“AI安然”旗号的研究型团队。Claude Code成了企业AI市场最凶悍的产品之一,年化收入跑到数十亿美元级别。更夸大的是,据Business Insider报道,Anthropic在私募二级市场的估值已冲破1万亿美元。
当一小我一边站在道德高地上提示所有人慢一点,一边又在赛场中心下注,并且越下注越大年夜,他就很难不变成靶子。
01
全平易近公敌

阿莫迪正在成为AI行业里最让人不爽的人。
最新一个开仗的人,是黄仁勋。
在一档播客里,黄仁勋把那些动辄预言AI将造成大年夜范围掉业、甚至带来人类灭尽风险的科技CEO,称作患上了“上帝情结”。

他的大年夜意是,一旦坐到CEO的地位上,人就很轻易开端认为本身什么都懂。可关于AI的公共评论辩论,应当回到事实,而不是被夸大的末日叙事牵着走。

这番话没有点名,但很难不让人想到阿莫迪。
而这已经不是黄仁勋第一次被阿莫迪的AI风险叙事惹到。
在另一档播客里,黄仁勋被问到这个类比时,直接说这实属“荒谬”。他认为,把AI芯片和核兵器相提并论,是一个很差,也不合逻辑的类比。
阿莫迪一向支撑更严格的芯片出口管束,还专门写过长文呼吁加强限制。本年在达沃斯论坛上,他把向中国出口先辈AI芯片,类比成“卖核兵器”。
黄仁勋当然不会接收这个说法。

假如说黄仁勋的还击,来自英伟达和Anthropic在芯片政策上的直接好处冲突,那么OpenAI的进击就更像是老敌手之间的正面比武。
在一次播客对谈中,奥特曼称Anthropic正在用“恐怖”做营销。
他用了一个颇为苛刻的比方:这就像有人说,我们造了一颗炸弹,立时要扔到你头上,然后我们可以卖你一个一亿美元的防空洞。

这句话很明显指向Anthropic方才宣布的Claude Mythos Preview。按照Anthropic本身的说法,这个收集安然模型才能太强,临时不会对"大众,"开放,而是先放进一个名为“玻璃之翼”的项目里,为合作机构做防御性安然工作。
来自OpenAI的“进击”还不止这一次,4月13日,The Verge披露了OpenAI首席营收官丹妮丝·德雷瑟(Denise Dresser)发给员工的一份四页内部备忘录。备忘录主题是若何赢下企业AI市场,但个中专门拿出一段评论辩论Anthropic,几乎是在逐条拆敌手的台。

个中写道,Anthropic的故事建立在“恐怖、限制,以及少数精英应当控制AI的不雅念”之上。
她还说,Anthropic过度依附代码场景,算力贮备不足,并质疑其年化收入说法,称Anthropic把与亚马逊、谷歌的收入分成按总额计入,导致其300亿美元年化收入被高估了大年夜约80亿美元。
阿莫迪和奥特曼是老冤家,OpenAI和Anthropic是直接竞争敌手;黄仁勋的芯片生意,也直接被阿莫迪的政策主意波及。他们的还击看起来都有迹可循。
但这还没完。
阿莫迪冒罪人,当然不仅仅是因为他道德感太高而情商又太低。
2025年,阿莫迪接收Axios采访时说,AI可能在将来一到五年内祛除一半初级白领岗亭,并把掉业率推高到10%到20%。他还说,AI公司和监管机构不克不及持续掩盖、不克不及把即将到来的冲击说得太轻。
针对阿莫迪关于就业的断定,杨立昆在X上说:“达里奥是错的”“他对技巧革命若何影响劳动力市场一窍不通”。他甚至说,这类问题应当多听经济学家的,而不是AI圈的任何人的,包含杨立昆本身在内。

就连舆论也开端出现一些质疑的声音。
仅就来自有名媒体的评论举例:《泰晤士报》质疑警告世界末日的AI大年夜佬为什么本身一向下来,TechCrunch则点出,Anthropic限制Mythos开放,外面是保护互联网安然,但这种选择性开放也可能赞助它锁住大年夜企业客户、阻拦小公司经由过程蒸馏复制才能,从而保护本身的贸易好处。

很明显,阿莫迪带领着Anthropic,占据了某种道德高地。但越是站在高地上,就越成为了被进击的靶子。
问题在于,仅仅是因为阿莫迪太有原则、太保持“安然”,不吝冒罪人,所以才被反过来进击吗?
最奥妙的是,OpenAI还写道,阿莫迪和几位同事筹划开启一个新项目,这个项目“可能会更少存眷产品开辟,更多存眷研究”。而其他大年夜部分篇幅,用来注解OpenAI本身在安然范畴的决心。
阿莫迪越是用力地当“道德标兵”,他身上的一个道德悖论就越刺目刺眼——他站在赛场中心,一边下注,一边提示所有人这场比赛可能有毒。
这其实太别扭了。
02
备忘录里,OpenAI首席营收官丹妮丝提到了一个词:“精英”。
这确切是阿莫迪身上最能干标标签之一。
他那场站在道德高地上的对决,也几乎成了他名誉的巅峰——面对美国战斗部的请求,Anthropic拒绝放宽Claude的应用界线,保持不许可其被用于大年夜范围监控,也不许可用于没有人类介入决定计划的完全自立兵器。

阿莫迪当时说,他们“出于良心不克不及准许”这个请求。那一刻,"大众,"的欢呼里,若干带着一种久违的释放,硅谷精英终于又一次站出来,对更大年夜的权力说了“不”。
要搞懂这个“安然大年夜王”从何而来,照样得往回看他的来路。
更有意思的是,阿莫迪表示,有些Anthropic员工面对Meta的挖角,甚至连扎克伯格都不肯意聊。这句话里当然有夸耀的成分。但它真正想传递的是Anthropic员工的“共鸣”是存在且稳定的。
阿莫迪1983年出身在旧金山。父亲是意大年夜利裔皮革匠,来自托斯卡纳,经久受健康问题困扰,在阿莫迪年青时去世;母亲是出身于芝加哥的犹太裔美国人,曾做藏书楼项目经理。
阿莫迪从小就是标准的理科尖子生。他读的是旧金山最有名的公立精英高中之一,2000年入选美国物理奥林匹克队。上大年夜学后,他先辈了加州理工学院——也就是美国最顶尖的理工科名校之一,后来转到斯坦福,拿到物理学本科,最后又去普林斯顿读完了生物物理博士。
他是物理、神经科学、AI研究多维融合的技巧型人物,这也决定了他的复杂视角。

2014年,吴恩达把阿莫迪招进百度在硅谷的人工智能实验室,介入语音辨认体系的研究。后来他成为Deep Speech 2论文作者之一,这套体系主打端到端语音辨认,覆盖英语和通俗话,也试图用更大年夜范围的数据、算力和练习重走传统语音辨认流程。也就是在这段时光里,阿莫迪开端形成对“范围化”的早期直觉。他后来在访谈中回想,当时发明,当模型更大年夜、数据更多、练习时光更长时,后果会持续变好。对他来说,后来贯穿GPT、Claude这一代大年夜模型的Scaling崇奉,在百度做语音辨认时就已经埋下了伏笔。
丹妮拉·阿莫迪(Daniela Amodei)也是一个重要角色。她同样从OpenAI出走,兄妹俩合营创办Anthropic。
兄妹俩形成双核构造。阿莫迪更像技巧路线和安然叙事的代表,丹妮拉则更多承担公司运营、组织扶植和贸易推动。Anthropic今天这种独特气质——一边像安然研究机构,一边又是高速融资、高速扩大的AI公司——很大年夜程度上就来自这组错误。
这种家族纽带也给Anthropic带来一种特其余稳定感,使这家公司更像一个从旧组织里决裂出来的小集团,带着强烈的自我认同,认为本身要用另一种方法做AI。
2020岁尾,OpenAI宣布了一篇异常虚心的组织更新,宣布时任研究副总裁阿莫迪即将分开。文章感激他近五年的供献,提到他介入GPT-2、GPT-3,并与苏茨克维(Ilya Sutskever)等人合营设定研究偏向。
04
阿莫迪的复杂性,正在于这两件事可能同时成立:他确切信赖AI安然,也确切把AI安然变成了Anthropic最锋利的贸易兵器。安然既是他的崇奉,也是他的权力杠杆。

多年后,当Anthropic和OpenAI的抵触公开化之后,人们回溯昔时的友爱“分别”,不难看出两边对于AI才能增长和安然界线应当若何排序,早已存在不合。
几个月后,Anthropic成立。此后,安然从阿莫迪的小我立场,慢慢变成了这家公司的骨架。
它有RSP,也就是《负义务扩大政策》(Responsible Scaling Policy),用ASL等级给不合才能阶段的模型设置风险峻求,有点像AI版的生物安然等级;它经由过程一套“宪法”原则引导模型行动;它还持续投入可解释性研究,试图打开模型黑箱。
阿莫迪当然在应用“安然”,但前提是,他也确切经久信赖安然。从OpenAI出走,到创建Anthropic,再到RSP、AI“宪法”、可解释性、模型风险分级、国防合同界线,他的行动颇具经久一致性。
这也是阿莫迪复杂的处所。
“安然大年夜王”的来时路
他身上有一种很强的精英自负——我看见了更大年夜的风险,所以我有资格提示所有人慢一点、严一点、怕一点。可同样是这种自负,让他显得居高临下。
而当阿莫迪开端经营一家贸易公司,当“道德”赶上贸易,精妙的均衡加倍难以保持。
03
当“安然”变成公司主线
Anthropic的特别之处在于,它从一开端就是一群人从OpenAI出走后组建的新组织,出走的来由里有技巧路线,也有安然理念,还有对“谁应当定义AI将来”的不合。
所以文化在Anthropic显得非分特别重要,更像一套操作体系。

阿莫迪是一个带着研究员气质的组织设计者。他曾在访谈里说,本身大年夜概三分之一,甚至40%的时光,都花在确保Anthropic的文化是好的上。
Anthropic外面上总在讲谨慎、克制、界线,但内部并不是一种温吞水文化。相反,Anthropic公司内部有一种类似小我公开笔记本的Slack频道,员工会在里面写本身的设法主意、工作进展,甚至直接和阿莫迪展开辩论。
可以想见,不管是Anthropic的准入门槛照样内部文化的赓续塑造与碰撞,都形成了对人才的某种筛选机制。
以前一年,Meta为了补强AI团队,到处挥动支票本挖人。AI行业的人才价格被抬到夸大程度,顶尖研究员和工程师几乎变成了自由市场上的超等球星。面对这种挖角,一些公司本能地“跟价”,至少是明白地表示要进步员工薪酬,先把人留下来再说。

阿莫迪没有这么做。他公开解释过,Anthropic不会因为外部公司给某小我开了天价offer,就急速打破本身的薪酬原则。他说,假如扎克伯格像扔飞镖一样随机击中某小我的名字,那并不料味着这小我就应当比旁边同样优良的同事多拿十倍。
阿莫迪必须让员工信赖,Anthropic不是另一家只想跑得更快的AI公司;同时,他又必须带着这家公司真的跑得足够快。不然,安然叙事再漂亮,也只会变成赛场边上的道德评论。
杨立昆(Yann LeCun)也在X上公开怼过阿莫迪。这一次,争议来自AI对就业的影响。
“安然”作为生意,成就斐然。
Anthropic从一开端就天然吸引那些对靠得住性、可控性请求更高的客户。Claude刚推出时就强调靠得住性、可猜测性和可引导性,早期合作伙伴就是Notion、Quora、DuckDuckGo、Juni Learning这类常识临盆、搜刮、教导和工作流对象。
Anthropic卖的不是“最便宜的模型”。企业、当局、代码、金融、医疗、教导、公共部分——这些客户更在意稳定性、合规性、安然界线和经久义务。价格上也能看出来,Claude并不是低价路线。Claude Opus 4.7的价格是每百万输入tokens 5美元、输出25美元;Claude Sonnet 4.6是输入3美元、输出15美元。比拟之下,xAI的Grok 4.20是输入2美元、输出6美元,明显更激进;OpenAI的GPT-5.5则是输入5美元、输出30美元,和Claude Opus处在同一高价区间。

Reuters此前也报道,Anthropic拥有跨越30万贸易和企业客户,这些客户供献约80%的收入。企业客户按用量付费,留存更稳定,扩大空间也更大年夜,一旦进入代码、办公流、云平台和当局体系,收入就不是通俗订阅产品能比的。
与之比拟,OpenAI靠ChatGPT在C端打出了最大年夜的声量,也确切把大年夜众用户教导到了前所未有的范围;但C端用户多,不等于收入构造最好。
OpenAI本身最新说法是,企业收入已经跨越总收入的40%,并欲望到2026岁尾追平花费端。换句话说,即就是OpenAI,也正在拼命往企业市场尽力。
Anthropic和美国战斗部DoW的合作更是典典范证,很长一段时光里,Anthropic都是DoW在“机密范畴”独一合作的AI公司。Claude被用于谍报分析、建模与仿真、作战筹划、收集行动等义务。
顺着这个思路,回看Anthropic与DoW之间的激烈“斗争”,足见阿莫迪将安然作为生意的功力——经由过程对“大年夜范围监控”“自立兵器”底线的强调,即便丢了与DoW之间的合作,却让Anthropic的"大众,"有名度与“靠得住度”更上一个台阶,在本钱市场获得了前所未有的青睐。
Anthropic的年化收入从2025岁尾的90亿美元,冲到2026年4月的300亿美元量级;本年2月,它以3800亿美元估值完成300亿美元融资,随后Google又筹划最高向其投入400亿美元。更有报道指出,其在二级市场的估值已经达到了1.1万亿美元的范围。
安然听起来像一种克制,但在Anthropic它最后变成了一种更高等的贸易说话。
但这套治理术当然有它危险的一面。
当一家公司把“安然”变成组织崇奉,它就会天然获得一种道德优胜感,也更轻易把竞争敌手衬托成不负义务的人,把贸易选择包装成价值选择。
这也是为什么Anthropic越成功,阿莫迪越让人不舒畅。
“安然”的两面
假如仅仅将阿莫迪看作一个因为有幻想有底线但情商低、是以老是说大年夜实话冒罪人的“理工男”,不免难免有点无邪。
《华尔街日报》曾有一篇文章,回溯阿莫迪和奥特曼之间的10年恩仇。
阿莫迪在OpenAI的故事远不是一句“安然理念不合”能解释。

2018年,马斯克退出后,阿莫迪赞成留下的前提是布罗克曼(联创之一)和苏茨克维不得掌权——他先谈的是权力分派,而非技巧路线。
随后在关键的模型项目里,他和妹妹丹妮拉联手,把想参加的布罗克曼挡在门外,来由之一是某位核心研究员“不想与之共事”。这位研究员过后形容本身被高管当成“代理人兵器”,可见阿莫迪异常懂得借人结盟。
跟着GPT-2/3走红,他对功绩归属和曝光度愈发敏感:不满布罗克曼在播客里“抢风头”,发明奥特曼和布罗克曼预备去见奥巴马却没带本身,更是当场发火。
次年他请求升任研究副总裁,奥特曼赞成,并在董事会邮件中附带一句“阿莫迪承诺不再贬低他不承认的项目”,俨然一项停火条目。
这些细节解释,安然是阿莫迪的信条,也是一把锋利的组织兵器。他会谈前提、争项目、掠夺话语权,把“风险”话术用来界定谁能留在核心。
最终分开OpenAI创办Anthropic,与其说是幻想出走,不如说是内部夺权掉利后,将疆场外移。
当他掌舵Anthropic之后,情况变得加倍复杂。Anthropic不再是研究室里的幻想实验场,而是一艘高速增长的贸易战舰。这个时刻,安然就从纯原则,变成了实打实的产品卖点。
Anthropic越是高调强调AI风险,越能凸显本身的存在须要;越是点名别人跑得太快,越能把本身包装成企业、当局和监管者最靠得住的伙伴。
它的叙事天然带着一种道德比较,即选Claude,不只是挑了个模型,也是在选择一条更负责、更可控的路线。
对竞争敌手来说,这就很烦人了。你卖产品也就罢了,还顺手把别人衬得像不负义务的赌徒。安然成了差别化护城河,也成了营销利器。企业客户愿意为“安心”多付钱,当局部分也更轻易把敏感项目交给“最安然”的那一家。
在这个过程中,安然也同时变成了一种政治筹码。
Axios报道,2026年第一季度,Anthropic联邦游说支出达到160万美元,跨越OpenAI的100万美元,也创下自身最高记载;此前它还宣布向一个主打AI透明度和安然护栏的两党倡议组织投入2000万美元,并筹划扩充政策团队、在华盛顿设立经久办公室。
说白了,阿莫迪已经在争夺AI时代的游戏规矩。
就连媒体也开端追问:一个一向警告世界末日的AI大年夜佬,为什么本身还一向下?
“安然”既是Anthropic的生意,也是筛选机制。
原则和好处并非简单对立,而是互相豢养、互相强化。恰是这种真假交错的状况,才让他既被捧为“安然大年夜王”,又被一些人视为精明的操盘手。
Anthropic越会解释风险,越有机会定义风险;越有机会定义风险,越能把本身放进AI时代的规矩中间。
这是属于阿莫迪的“安然魔法”,而“全平易近公敌”,就是玩魔法的必备副感化。
也许他甘之如饴。

发表评论 取消回复