GPT-5发布在即。Sam Altman 这两天在 X 上不断预热,从目前得知的信息来看,OpenAI 最新的模型最大的突破之一就是编程能力。肉眼可见的,在过去一年时间中,编程已经成为模型最重要的能力。
而目前,行业中公认的编程能力最强的模型是 Anthropic 公司出品的 Claude 系列。Anthropic 和 OpenAI 之间有很多渊源,他们曾经紧密合作过,现在又在同一个领域展开着激烈竞争。
我也未曾想到,在并不占据优势的情况下,Anthropic 这家公司能够通过聚焦 AI 编程,最终跑出了一条华丽的增长曲线。
连 OpenAI 都甘拜下风。据报道,Anthropic 最新估值近1700亿美元,预计2025年底ARR达90亿美元。
我之前写过,Anthropic 的 CEO 曾经多次提到过自己的惊人判断:AI 可能会淘汰一半的初级白领工作,并在未来一到五年内将失业率推高 10%-20%。
今天这次访谈,是近半年来我看到Anthropic CEO 最为完整和系统表达自己想法的内容。
我和团队做了全文精编翻译。即便有 AI,我们仍旧花了半天时间校对,希望能给你带来这个时代,最前沿和优质的认知。
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(242, 91, 44);margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">#01
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">我只是想说出我们真正相信的事情
Dario Amodei:谢谢你邀请我。
主持人:我们来回顾一下你过去几个月的表现,你说 AI 可能会让一半初级白领工作消失。
你切断了 Windsurf 访问 Anthropic 最强模型的权限,因为你得知 OpenAI 要收购他们;你向政府申请出口管制;你还惹恼了英伟达 CEO 黄仁勋。你这是怎么了?
Dario Amodei:我觉得,其实我和 Anthropic 一直以来都只是想说出我们认为该说的,做我们该做的事情。
随着我们越来越接近一些更强大的 AI 系统,我也更想更坚定、更公开地表达观点,让大家明白我们的意思。
实际上,这些年来我们已经总结出一些规律,其中扩展法则(scaling laws)尤为突出,具体细节可以进一步说明。
AI 系统变得越来越强大。几年前,它们还很难连贯表达;一两年前,它们的水平差不多是一个聪明的高中生。现在,它们像是聪明的大学生、博士生,而且开始被应用到整个经济体系中。
所以跟 AI 相关的所有问题,无论是国家安全层面的,还是经济层面的,都开始变得迫在眉睫。虽然我们 Anthropic 一直有说这些事,但现在我觉得它们的紧迫性更强了。
我想要明确表达我们真正相信的事情,同时也想提醒世界这些技术可能带来的风险。虽然没人能确切知道会发生什么,我们只是说出我们认为可能发生的事,可能性高的事。
我们会尽量提供依据,虽然很多是对未来的推测,没人能完全确定。但我们觉得自己有责任提醒世界接下来可能会发生的事。
这并不代表我不看好 AI。我其实一直在强调它的积极用途。我还写过一篇文章叫《Machines of Loving Grace》。
实际上,我觉得我和 Anthropic 对 AI 带来的好处的描述,比那些自称乐观派或者加速主义者的人还要清楚。
所以我觉得我们可能比任何人都更理解 AI 的益处。但正因为我们相信未来如果一切做到位真的会非常好,这也让我更有责任去提醒大家注意这些风险。
主持人:所以你之所以现在频繁发声,是因为你自己的时间线更短,对吧?你觉得这些事快要发生了,所以有紧迫感?
Dario Amodei:是的,我不确定……就是说,尤其是社会层面的变化其实很难预测。
如果你问,企业什么时候会大规模部署 AI,或者什么时候企业会在 AI 上花多少预算,AI 什么时候能在某些领域实现医学上的重大突破……这些其实很难说。
我觉得底层技术的走势相对更可预测,但也不是绝对。即便如此,我最近对底层技术的走势更有信心。它当然不是百分百确定,这条指数曲线未来也可能就突然停了。
我觉得接下来两年里,大概有 20% 到 25% 的概率,模型的进步会停下来,可能是因为我们不理解的原因,也可能是数据或算力不够,然后我之前所有的警告看起来就像笑话一样,大家都来嘲笑我。
我完全可以接受这种情况。因为我看到的是一个分布概率。
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(242, 91, 44);margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">#02
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">技术进展其实快得吓人
Dario Amodei:这其实要看时间线指的是什么。我这些年一直说一个观点,我们会听到有人用 或者超级智能这些词。
有的公司领导说他们已经实现 AGI 了,现在要去搞超级智能了;或者有人说,他们现在不搞 AGI,改搞超级智能了。我觉得这些词完全没有意义。
我不知道 AGI 是什么,我也不知道超级智能是啥。这听起来像是市场营销的说法,像是专门拿来刺激大家多巴胺的东西。
所以人们会发现我在公开场合从不使用这些词,而且我还会专门批评这些说法。但即便如此,我确实是业内对 AI 能力提升速度最乐观的人之一。
我反复强调的是指数曲线这个概念,我们每隔几个月就能得到一个比之前更强的 AI 模型。这是通过投入更多算力、更多数据、更先进的训练方式实现的。
最初我们靠的是预训练(pretraining),也就是喂给模型很多互联网数据。
现在有了第二阶段,比如强化学习(reinforcement learning)、测试时计算(test-time compute)或者推理能力训练(reasoning),不管叫什么吧,我就把它看成是第二阶段,用强化学习来做的。
现在这两个阶段一起在扩展。不只是我们自家的模型,其他公司的模型也一样。我没看到这条扩展路径上有明确的阻碍。当然 RL 那边还有一些问题,比如要如何让任务范围更广。
我们在数学和编程上看到不少进步,模型现在几乎达到高级专业人士的水平了。但在一些更主观的任务上,进展还没那么大。我觉得这只是暂时的障碍。
所以我看这个趋势的时候,我会说,人类其实很不擅长理解指数曲线。
如果一个事物每六个月就翻一倍,那它发生前两年看起来才刚刚起步,就像只完成了 1/16。一点都不像即将爆发。所以我们现在是 2025 年中,模型的能力已经开始在经济中迅速爆发了。
我们看到模型能力的提升,已经快把各种评测压满了。
再看看收入增长,Anthropic 的收入每年都增长 10 倍。我们自己都很保守地说,这次可能不会再翻 10 倍了。我从不预设什么,一直都很保守地估计商业上的增长会放缓。
2023 年我们从零增长到 1 亿美元,2024 年从 1 亿涨到 10 亿。今年,也就是 2025 上半年,我们从 10 亿涨到了远超 40 亿,可能是 45 亿了,就现在。
所以你想想,如果这个指数趋势再持续两年,我不是说一定会,但假如持续下去,那就是几千亿的量级了。我不是说它一定会发生。
我只是说,在指数增长中,人们很容易被误导。距离爆发还差两年时,看起来就像个刚起步的玩意。而这才是根本的动态。
我们在互联网时代也见过这个趋势,90 年代的互联网就是这样:网络速度和计算速度开始变快,短短几年就能在这些技术上构建一个全球数字通信网络,而在几年前还完全不可能。
除了极少数人,几乎没人看清这种变化的速度和影响。我现在的判断也是如此。
当然,万一发生什么,比如一堆卫星坠毁,可能互联网也得延后几年才起来;如果经济崩溃了,也可能慢一点。
我们不可能确定具体的时间线,但我觉得很多人正在被指数趋势给骗了,没意识到它的速度到底有多快,而我觉得,它可能真的会很快。
主持人:虽然我也不确定,但现在 AI 行业里很多人都在说,模型规模扩大已经开始出现收益递减。这好像跟你刚才描述的愿景完全相反。
Dario Amodei:他们错了吗?从我们看到的情况来看,我只能就 Anthropic 的模型发言。
但就我观察到的 Anthropic 模型来看,比如编程这个方向,我觉得我们进展非常快,落地应用也非常快。
我们不只是做编程的公司,接下来也会扩展到其他领域。
但如果我们就编程来说,我们发布了 3.5 Sonnet,一个叫做 3.5 Sonnet V2 的模型,我们称它为 3.6,然后是 3.7 Sonnet,再到 4.0 Sonnet 和 4.0 Opus。
这四五个模型里,每一代在编程方面的能力都明显比前一代强。
如果人们想看评测数据,可以看看 SWE-bench 这个基准测试,大概 18 个月前模型表现只有 3% 左右,现在已经提升到了 72% 到 80%,取决于怎么评估。
而实际使用量也在呈指数增长,我们现在越来越接近完全自动化,只用模型就能完成任务。
我觉得我们公司现在绝大多数的代码,都是由 Claude 模型写出来的,或者至少参与过其中的某一个 Claude 模型。
而且也有其他公司说过类似的事情。所以我们认为进展非常快,指数趋势还在持续,我们没有看到什么收益递减。
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(242, 91, 44);margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">#03
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">就算不能持续学习,LLM 也很有用
他的观点是,持续学习是个非常非常大的问题。语言模型在很多测试里表现可能比普通人强,但你只能用它出厂时的能力。
也就是说,模型做完了就做完了,它不会继续学习。这好像是一个很明显的缺陷。
Dario Amodei:你怎么看这个问题?首先我想说的是,就算我们永远解决不了持续学习和记忆的问题,我仍然认为 LLM 有巨大潜力,能在经济层面带来非常深远的影响。
我之前研究的是生物医学这个方向。打个比方,如果我有一个非常聪明的诺贝尔奖得主,我跟他说,你已经发现了很多成果,你大脑非常聪明,但你现在不能读新教材,不能吸收新信息,那确实很难会有新突破。
但如果我们有一千万个这样的人,他们仍然会带来很多生物学突破。他们会有局限,但他们也能做到一些人类做不到的事。当然也有些人类能做,但他们做不到的。
但即使我们把持续学习当成一个天花板,那这个结果已经非常了不起,非常具有变革性。就算我告诉你我们永远解决不了这个问题,我仍然觉得人们低估了它的影响。
另外,现在上下文窗口也变得更长了,模型在上下文中其实是会学习的。
就像我们现在在对话,模型会听我说什么,然后吸收这些信息,虽然模型底层权重不会变,但它在对话中能理解、能回应。
就像我现在跟你对话,我听你说的内容,然后进行思考、作出回应。模型现在就能做到这一点。
从机器学习的角度看,其实我们是可以把上下文长度扩展到一亿词的。这大概相当于一个人在一生中听到的总词量。从技术上讲,这没有什么真正的障碍,主要就是推理时的系统支持问题。
所以这个机制已经能填补很多短板,虽然不是全部,但已经能补上很多了。
然后还有一些方法,比如学习和记忆,是可以让模型的权重更新的。
所以我们有一些方法,比如不同类型的强化学习、训练方式。大家知道,我们以前经常讲内循环和外循环的概念。
内循环是指模型在一次任务中学到一些东西,试图在这次任务的生命周期中优化表现;而外循环是指这个 Agent 在多个任务之间不断学习。
这内循环-外循环的结构,可能就是持续学习的一种实现方式。
我们在 AI 领域学到的一点是,有时候一个问题看起来像是无法突破的根本难题,但最后其实都能被解决。
比如两年前我们以为推理能力有天花板,结果后来发现其实只需要做强化学习,让模型写下自己的思考过程,解决一些客观的数学问题,不用特别复杂的方式。
现在我们也许已经看到了一些证据,说明持续学习其实也是一个没那么难的问题,可能通过规模化再加上一些新的思路就能解决。
主持人:你会不会担心你对扩展规模的执着,反而让你忽视了一些真正的新方法?
Demis Hassabis(DeepMind 联合创始人兼 CEO)说的,想达到 AGI,或者你称之为超强 AGI,总之是类似人类水平的智能,我们可能还需要一些新的技术手段。你怎么看这个观点?
Dario Amodei:我们每天都在开发新技术。Claude 在编程方面表现非常好,但我们其实很少对外讲为什么 Claude 在编程上这么强。
主持人:那为什么 Claude 编程这么强?
Dario Amodei:就像我说的,我们不会对外讲这个。我们每发布一个新的 Claude 版本,都会在架构上改进、数据上优化、训练方法上更新。
我们一直都在开发新技术。每一个模型里都有新技术的元素。这也是为什么我常说,我们尽可能追求高密度人才,因为我们需要高密度的人才,才有可能发明出新的技术。
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(242, 91, 44);margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">#04
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">资源不如人,就靠人才和效率竞争
Elon 正在建一个超级集群,Zuckerberg 在造一个 5GW 的数据中心。他们正投入巨大资源进行扩展。有没有可能……我知道 Anthropic 也融资了几十亿,但他们可是万亿市值公司。
Dario Amodei:我们目前大概已经融资接近 200 亿美元,这也不算少吧。
主持人:那确实不少。
Dario Amodei:确实不算小数目。而且我还要说,比如我们和 Amazon 一起建设的数据中心规模,我不觉得我们在数据中心建设上比其他公司小。
很多时候真正的限制是能源,是资金结构。这些大额融资其实都是多年分批投入的。
而人们看到的一些新闻里,很多项目其实还没真正到位。我们也看过其他公司在建的数据中心规模,其实我们对自己的计划很有信心,基本也会和它们处在同一个级别的量级上。
主持人:你提到了人才密度。那你怎么看 Mark Zuckerberg 在人才密度上的努力?他结合大型数据中心的建设,好像也能在这个方向上形成竞争力。
Dario Amodei:这其实挺有意思的。我们注意到一个现象,相比其他公司,好像被 Mate 挖走的人在 Anthropic 明显更少。
并不是他们没来挖。我和很多人聊过,他们在 Anthropic 收到这些公司开的 offer,但他们直接拒绝了,有的人甚至根本不愿意和 Zuckerberg 谈话,就直接说我要留在 Anthropic。
我们对这件事的回应是,我在公司 Slack 上发了消息告诉大家,我们不会为了应对这些 offer 去破坏我们原本的薪酬原则,也不会打破公平的制度。
我们在 Anthropic 的流程是这样的,每个人来面试后会被评定一个等级,然后我们不会和个人谈判这个等级,因为我们觉得这不公平。
我们想有一个系统性的标准。比如如果 Zuckerberg 随手扔飞镖砸中了你,不代表你就该比你旁边那个能力一样强的人多拿十倍工资。
我认为,真正能让公司受伤的,不是这些挖角行为本身,而是一个人因为恐慌而开始破坏公司文化、对员工区别对待、试图靠让步来保住公司。
但我觉得这反而成了一个凝聚人心的机会。我们没有妥协,没有放弃自己的原则。我们相信,我们公司的员工是发自内心认同使命感而留下来的。这也是我对这件事的看法。
他们现在试图买一种东西,而我认为这东西是买不到的,那就是对使命的真正认同。而且,我觉得这也说明一个选择效应:他们真的能吸引到最热情、最有使命感、最兴奋的人才吗?
主持人:但他们有人才也有 GPU。你不会低估他们吧?
Dario Amodei:我们走着看吧。我对他们在做的事,其实是偏悲观的。
主持人:那我们来谈谈你们的商业模式吧。很多人都在想,生成式 AI 真的是一个可行的生意吗?我也一直有这个问题。
你刚提到你们融资了差不多 200 亿美元,分别从 Google 融了 30 亿,从 Amazon 融了 80 亿,还有一轮由 Lightspeed 领投的融资拿了 35 亿。
我很好奇,你们是怎么说服投资人的?你们不是大型科技公司旗下的一部分,完全是独立的。你是带着扩展法则的 PPT去说,能不能给点钱吗?
Dario Amodei:我一直的看法是,人才是最重要的。如果你回到三年前,那时我们只融资了几亿美元,而 OpenAI 已经从微软那里拿了 130 亿。当然,那些超级大公司手上都握着几千亿现金。
我们当时给投资人的说法就是,我们比别人更懂得怎么把模型做好。
扩展法则也许是一条曲线,但假设我们能用 1 亿美元做到别人用 10 亿才能做到的事情,能用 10 亿做到别人要花 100 亿才能做成的事。
那把钱投给我们,在资本效率上就是 10 倍。这比一开始就拿着一大堆钱,更有意义。
如果我们能用 1/10 的成本做出同样甚至更好的成果,那钱的差距只是暂时的问题,最终可以解决。只要我们有这种能力,能以更低的成本造出更好的模型,投资人不是傻子,至少他们不总是傻子。
我就不点名了。但他们基本上是明白资本效率这个概念的。所以三年前我们起步时,这些差距可能是上千倍的。
而现在你问,用 200 亿美元能不能和 1000 亿美元的公司竞争?我的回答是可以,关键在于我们的人才密度。
我以前也说过,其实就我们这个规模来说,Anthropic 是有史以来增长最快的软件公司之一。
2023 年我们从 0 到 1 亿美元,2024 年从 1 亿到 10 亿。今年我们又从 10 亿涨到了我刚才说的 45 亿,年年 10 倍。
我每年都怀疑我们还能不能再这样增长一次,每年我都不太敢把这话说出来,因为会觉得不可能又来一遍。但我们的增长规模本身,就已经说明我们确实有能力和大公司竞争。
主持人:CNBC 报道说,Anthropic 60% 到 75% 的销售收入来自 API 接口,数据来自内部文件。这个数据现在还准确吗?
Dario Amodei:我不会给出具体数字,但大多数收入确实来自 API。不过我们的应用产品业务也发展得很好。
最近 Max 高阶订阅计划用户增长也很快,Claude Code 也被很多程序员使用。所以我们在应用产品方面也发展迅速。但总体上,主要收入确实来自 API。
主持人:那你其实是在押注这项技术本身。OpenAI 可能是押在 ChatGPT 上,Google 可能押注于技术无论如何发展都可以融入 Gmail 和日历。那么你为什么选择押注这项技术本身?
Dario Amodei:我不会完全这么说。我更愿意说,我们其实是押在模型的商业应用上,而不仅仅是 API。只是说模型最早的商业应用恰好是通过 API 落地的。
你刚才提到 OpenAI 很注重消费者产品,Google 注重现有产品的集成。我们的看法是,如果说哪个市场会更大,我们认为 AI 在企业端的应用甚至会超过消费端。
更准确地说,是在企业、初创公司、开发者和高效能用户之间的生产力场景里。我们也认为,把重点放在商业应用上,能带来更强的动力去把模型本身做得更好。我举一个值得思考的例子。
假设我现在有个模型,生物化学能力和本科生一样。然后我把它升级成博士生水平。
如果我拿这个模型给普通消费者用,我说好消息啊,它现在从本科水平变成了研究生水平,可能只有 1% 的人会在意。剩下 99% 的人可能会说我本来也看不懂,无所谓。
但如果我拿着这个模型去找辉瑞,说这个模型已经从本科变成了研究生水平,对他们来说这就是天大的事。他们可能愿意为这个多付十倍的钱,模型本身也能带来十倍的价值。
所以我们整体的目标,是把模型做得更聪明,也更有实际作用,能够落地在我写的那篇《Machines of Loving Grace》里讲的那些领域。
比如生物医学问题、地缘政治问题、经济发展问题,还有金融、法律、生产力、保险这些日常但现实的问题。
这种发展路线,能更好地推动我们把模型做到极致。我认为在很多方面,它甚至是更正向的一种商业方式。所以我会说,我们押注的是 AI 的商业应用场景,因为它和技术指数级提升的方向更一致。
主持人:那简单讲一下,你们当初是怎么决定专注于编程这个应用方向的?
Dario Amodei:这其实和大多数事情一样,最初我们只是想让模型在多个领域都变得更好。但后来发现,编程这个方向特别突出,价值特别大。
我曾经和几千位工程师共事过,大概在一年或者一年半前,我认识的一个最优秀的工程师对我说,之前所有编程模型对他都没用,只有这次这个模型终于能帮他完成他原本做不到的事。
我们发布之后很快就被广泛采用了。差不多也是那个时候,像 、Windsurf、GitHub Copilot、Augment Code 这些公司开始在市场上大火。我们看到这个方向这么受欢迎,就决定继续加大投入。
我觉得编程特别有意思的点在于:一,它的用户增长非常快;二,模型在编程上变强了,反过来也能帮助我们去训练下一个更强的模型。所以这是一个很有优势的正循环。
主持人:现在你们通过 Claude Code 在销售 AI 编程能力。但有意思的是,你们的定价让一些人很困惑。
一个开发者跟我说,他花 200 美元订阅,就获得了相当于 6000 美元 API 调用额度的服务。
Ed Zitron(科技评论员、专栏作家)指出,模型越强,用户使用越频繁,你们可能亏得越多。对于那些高频使用者来说,你们不就亏本了吗?
Dario Amodei:那这怎么看才合理呢?其实定价机制和调用限制比想象中复杂。
我们一开始发布 Claude Code 和 Max 高阶订阅计划时,其实并没有完全意识到用户可能的使用方式,以及他们能从中获取的调用量。
所以就在这次采访之前几天,我们对大型模型的订阅计划做了一些调整。我觉得现在用户已经无法再用 200 美元换到那么多调用了。
未来可能还会有更多调整。但无论如何,我们始终会有一个使用频率的分布,有些人用得多,有些人用得少。就算一部分用户换算下来比 API 更划算,也不代表我们就是亏钱的。
你刚才说的那些推测里,其实有些是错的。我可以明确告诉你,我们确实没有亏钱。
主持人:但另一个问题是,你们还能不能继续支持这些使用场景而不涨价?我举两个例子。有些开发者在抱怨,用 Anthropic 新模型配合 Cursor,比以前花的钱多很多。
有些初创公司告诉我说,Anthropic 的服务不稳定了很多,他们猜是你们 GPU 不够用。
我前几天刚采访了 Replit 的 Amjad Masad,他也说,有一段时间模型的 Token 单价是在下降的,但现在不降了。是不是因为你们跑模型的成本太高,已经碰到极限了?
Dario Amodei:我觉得你这个问题里面有很多假设。
主持人:这正是我问你的原因。
Dario Amodei:我的看法是,我们评估模型的方式,是看它创造了多少价值。随着模型变得越来越强,我们关注的是它能创造多少价值。
至于这个价值是怎么在不同角色之间分配的,比如模型开发者、芯片制造商、应用开发商,那是另一个问题。所以我觉得你问题里的一些前提,可能不完全正确。你知道的。
主持人:你能告诉我是哪几个假设错了吗?
Dario Amodei:我这样说吧。我确实预期,提供一定水平智能的成本会下降。而提供最前沿智能的成本,也许会上涨,也许会下降。我猜它大概会维持在现在这个水平。
但不管怎样,所创造的价值会大幅提升。所以在两年后,我的猜测是,我们的模型成本大致还会在当前这个数量级,但它们的能力会比现在强很多,能做的事也会更加自动化,更加高效。
主持人:Amjad 还提到的一点是,他认为更大的模型由于架构设计的原因,运行成本其实更高。我们之前提到过一些技术,比如只激活模型的部分区域。
他的观点是,Anthropic 能在后端不需要投入太多资源的情况下运行这些模型,但价格仍然保持不变。
而我想说的是,如果你们想达到软件行业的利润率,有些报道指出 Anthropic 的毛利率略低于软件行业平均水平,那你们可能需要把模型价格提得更高一些。
Dario Amodei:是的,我觉得更大的模型确实比小模型运行成本更高。你说的那个技术我猜可能是混合专家机制,就是 (MoE)mixture of experts。
无论一个模型是否使用了混合专家机制,它的作用就是让参数量很大的模型以更低的成本运行,是一种训练方式。
如果没有用这种技术,那大的模型运行成本就比小的高;如果用了这种技术,大的模型仍然比小的模型运行成本高。所以我觉得你的说法有点曲解了实际情况。
主持人:我也只是猜的,我是想从你这儿了解真正的情况。
Dario Amodei:好。关于模型成本,有一件事大家可能会感到意外,人们经常会觉得,要把毛利率从某个百分比提到更高会很难。但我们经常能做到让模型效率提高 50%。
我们现在其实才刚刚开始优化推理。推理效率跟几年前比已经有了巨大提升,这就是为什么价格会慢慢下降。
主持人:那你们多久能实现盈利?我听说你们今年的亏损大概是 30 亿。
Dario Amodei:那是别人说的。我会把不同成本区分一下。第一种是运行模型的成本,也就是说模型每赚一美元,要花掉多少成本。这部分其实已经很接近盈利了。
第二种是员工工资和办公场地成本,这部分其实在整体开支里也不算太大。最大的一块成本,是训练下一代模型的投入。
所以当人们说公司亏钱,不盈利时,其实有些误导。如果大家去看扩展法则,就能更清楚其中的逻辑。我举个例子,这些数字不是 Anthropic 的真实数据,也差得远了,只是为了说明问题。
假设 2023 年一个公司花了 1 亿美元训练一个模型,然后 2024 年这个公司用这个模型部署并获得 2 亿美元收入,但它又花了 10 亿美元训练下一个模型。
然后 2025 年这个 10 亿模型带来 20 亿收入,但又花了 100 亿训练新模型。
所以公司每年都在亏损,比如 2024 年亏了 8 亿,2025 年亏了 80 亿。表面看起来这家公司年年亏得很惨。
但我们可以把每一个模型当成一次独立的创业投资。我投了 1 亿进一个模型,第二年它赚了 2 亿,那这个模型的利润率是 50%,净赚 1 亿。
然后再投 10 亿训练新模型,那个也赚了更多。所以虽然公司整体在亏损,但每一个模型本身是盈利的。
我不是在说这些数字就是 Anthropic 的情况,我也不是说这就是我们的实际运营方式。但我想说的是,这种逻辑是整个行业里真实存在的一种基本动态。
所以随时只要模型停止进步,或者某家公司停止投资下一个模型,他们就很可能已经有一个能自我维持的盈利业务了。但现在大家都在投资下一个模型。
所以到最后,它终究会达到一个更大的规模。而我们现在花更多钱去训练下一个模型,其实是说明我们预期业务规模会比去年还要大。
当然也可能出现另一种情况,就是模型停止进步,然后公司投入大量资金打水漂,但整个行业最后会回到一个比较稳定的利润平台。
或者另一种可能是指数趋势继续进行。所以这是一个长期视角下的解释,我的意思是,现在这种说公司亏钱的看法,其实不一定是最正确的角度。
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(242, 91, 44);margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">#05
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">模型是否开源不重要,重要的是模型能力
Dario Amodei:我觉得这在整个 AI 行业里其实是个老问题。我在 AI 早期也见过类似情况。AI 每走过一个阶段,那个阶段的社区总会有一套固定的思维方式。
比如 2014 年我刚做 AI 的时候,当时的 AI 和机器学习研究圈子对事情有一整套认知。他们觉得这是个炒作,这是新玩意,不能成,也不具备扩展性。结果因为指数趋势,那些看法全错了。
之后公司开始落地 AI 应用,也经历了类似的否定。初创公司生态也一度觉得这些东西靠不住。
而现在我们进入了另一个阶段,全球的商业领导者、投资人、公司,都开始形成自己的词汇体系,讲什么商品化路径、哪一层能获得价值。
开源成了一种设想,好像人们能看到所有事情发生的过程,好像这能推翻一些商业逻辑。
但对我这种完全不是从这种商业语言体系里出来的人来说,我反而觉得这样的人经常看错了,因为他们是用上一个技术时代的认知在判断这个新趋势。
所以我想说的是,开源在 AI 领域的运行方式和其他领域其实不一样。我们在传统软件里可以看到源代码,但在 AI 模型里根本看不到模型内部。
大家现在叫它开放权重,而不是开源,就是为了区分这一点。但即便我们有权重,开源的那些优势,比如多人协作、逐步改进,其实在 AI 里并不完全成立。
所以当我看到有人把开源当成关键问题,我反而觉得那是个伪命题。每次我看到新模型发布,我根本不关心它是不是开源的。
比如 DeepSeek,重要的不是它是不是开源,而是它到底是不是一个好模型,它在我们擅长的任务上是不是更强。这才是我唯一在意的。
其实开源与否根本不重要。因为最终我们还是要把模型部署在云端。模型很大,推理成本也高。
而且即便拿到了模型的权重,我们现在在云端也会提供一些功能,比如微调模型,甚至在做一些模型内部激活可视化探索功能,这是我们上次在引导方向上做的小尝试。
所以我觉得你用是否开源这个维度来衡量竞争,其实是抓错了重点。我觉得开源在这个行业里,其实是个伪命题。
主持人:但如果开源模型是免费的,运行成本又很低呢?
Dario Amodei:它不是免费的。你还是得跑推理,而且必须有人把它在推理端优化得够快。
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(242, 91, 44);margin:0px;max-width:100%;outline:0px;padding:0px;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">#06
ntent="t" style="-webkit-tap-highlight-color:transparent;color:rgb(0, 0, 0);font-size:22px;letter-spacing:0.544px;margin:0px;max-width:100%;outline:0px;padding:0px;text-align:left;visibility:visible;box-sizing:border-box !important;overflow-wrap:break-word !important">我不是末日论者,但风险确实存在
Dario Amodei:我小时候,这个城市其实还没怎么被高端化,也就是说科技热潮那时候还没真正开始。等我上高中的时候,科技热才刚刚兴起。但我对它一点兴趣都没有,我完全觉得那很无聊。
我那时候只想当个科学家,我对物理、数学感兴趣。我对写网站这种事完全没兴趣,对创办公司也没有兴趣,那些都不是我当时在意的事。
我真正关心的是怎么去发现一些基础的科学真理,怎么做一些能让世界变得更好的事。
所以我的关注点完全不同。我是亲眼看着科技热潮在身边发生的,我当时就在它正中心,但我真的一点都不关心,也没有去关注。现在回想,可能当时本来能学到一些对现在很有用的东西。
主持人:你母亲是犹太人,父亲是意大利人,我没说错吧?在我们长岛那边,这种人我们叫披萨贝果。
Dario Amodei:披萨贝果?我从来没听过这个说法。
主持人:那你和父母的关系怎么样?
Dario Amodei:我们一直关系很好。我觉得他们给了我一种对是非对错,世界上什么是重要的这种基本判断。他们传递给我一种很强的责任感,这可能是我记忆中最深的部分。
他们一直是很有责任感的人,一直想让这个世界变得更好。我从他们身上学到的主要就是这些。
我们家庭非常有爱,非常关心彼此。我和我妹妹 Daniela 感情也很好,她后来成为了我的联合创始人。
我们很早就决定未来要一起做点什么。虽然我们当时可能没想到会做到今天这种规模,但这个念头其实很早就有了。
主持人:我和一些认识你多年的朋友聊过,他们都说你父亲的病对你影响很大。你能谈谈这件事吗?
Dario Amodei:是的,他生病很久,是在 2006 年去世的。这件事确实是促使我做出一些决定的原因之一。
我们之前在节目里还没提到,我在进入 AI 之前,其实是先去做了生物学。我是以想做理论物理的目标进入普林斯顿的,刚开始几个月也确实做了一些宇宙学研究。我父亲就是那段时间去世的。
那段经历影响了我,也促使我转向生物学,希望去研究一些与人类疾病和生物问题相关的东西。
于是我开始去找我们系里做生物物理和计算神经科学的教授交流。这才让我从物理转向生物学和计算神经科学,之后又进入了 AI。
我后来选择进入 AI,其实也是出于同样的动机。我在生物学领域待了很多年,逐渐意识到生物学的问题复杂到超出了人类的理解能力。
我可能需要几百几千个研究人员来理解一件事,而他们之间又常常难以合作、信息很难整合。
但 AI 是我当时刚开始接触的新技术,我感觉它可能是唯一一个能弥补这种人类能力鸿沟的技术,它有潜力帮助我们真正理解,解决这些超出人类认知规模的问题。所以这之间是有一条清晰的路径线的。
主持人:我可能记错了,但我听说你父亲得的病,当时几乎是无法治愈的。但后来这方面有了很多进展。你可以讲讲这方面吗?
Dario Amodei:确实是这样。事实上,就在他去世后的三四年里,这种病的治愈率从 50% 提高到了大约 95%。
主持人:那你当时一定觉得特别不公平吧?你父亲是因为一种几年后就可以治愈的病而去世。
Dario Amodei:当然。这也让我更清楚问题的紧迫性。有一个人找到了这种病的疗法,救了很多人,但如果他早几年就发现,也许还能救更多的人。
我觉得这就是 AI 所有这些好处中非常关键的一点。我希望大家能尽快享受到这些好处。我可能比大多数人都更清楚这件事的紧迫性,也正因为这样我才这么在意 AI 的风险。
当我讲 AI 风险时,如果有人说我杞人忧天,说我是个末日论者,我会非常愤怒。
你刚刚听我说了,我父亲去世就是因为有些疗法晚了几年才出现。我非常清楚这项技术的好处。我写《Machines of Loving Grace》那篇文章时,我列出了它可以怎样改善数十亿人的生活。
那些在推特上天天鼓吹加速的人,我觉得他们根本没有真正的人文关怀。他们脑子里只有肾上腺素,他们只是想找个东西来喊口号,助威呐喊。
我完全感觉不到他们是真的在乎什么。所以当这些人说我是末日论者的时候,我觉得他们根本没有任何道德立场。我真的会因此对他们失去尊重。
主持人:我一直在想一个词,就是影响力。很多认识你的人都说,你对有影响力这件事非常执着。
我甚至听说你不看《权力的游戏》,因为你觉得它和产生影响无关,是浪费时间。你宁可把时间用来专注在产生影响上。
Dario Amodei:其实不是这样。我不看那部剧是因为它太负面了。剧里很多角色都很恶劣,情节也很黑暗。
他们身处的处境本来就很糟,加上他们本身就很糟糕,导致最后大家的结局都比一开始还惨。我真正在意的是那些能够带来共赢结果的事情。
主持人:我还是推荐你去看,那剧真的很棒。
Dario Amodei:但我确实很抗拒,很长一段时间都不想看。
主持人:回到影响这个话题。你的职业路径可以理解为一个不断追求产生影响的过程。你可以纠正我,如果我说得太过了。你是不是希望能避免更多人经历你曾经历的那些事?
Dario Amodei:可以这么说吧。其实我研究过很多种帮助别人的方式,有些确实比其他方式更有效。我一直在思考,这件事背后应该有战略、有逻辑、有想法。怎么做才是真的在帮助人。
这条路往往很长,中间可能要经过一家公司,也会遇到很多看起来非常技术性、好像和实际影响无关的事情。
但我始终在努力让整条路径朝着真正产生影响的方向前进。我觉得这就是我做事的方式,也是我走上这条路的原因。
我当初选择进入 AI,其实也是出于同样的想法。那时候我看到生物学领域的问题太复杂,几乎难以破解,或者说进展实在太慢。
我之所以决定自己创业,是因为我之前在其他公司待过。我不觉得那些公司真的把产生影响作为目标来运营。
他们会讲一些听起来很不错的故事,用来吸引人才,但这些年我看得越来越清楚,那些故事其实并不是真心的。
主持人 :我要绕回前面一点问题。因为很明显你刚才说的其实是指 OpenAI。
据我了解,你当时掌控了 OpenAI 50% 的算力。你主导了 GPT-3 项目。如果说有谁会真正关注影响力和安全问题,那不正应该是你吗?
Dario Amodei:是的,在一段时间内确实是这样。但不是始终如此。比如我们在做 GPT-3 扩展的时候确实是这样。当时我在 OpenAI,我和很多同事,包括后来一起创办 Anthropic 的那批人。
主持人:就是你们叫的熊猫那帮人?
Dario Amodei:那不是我取的名字。
主持人:是他们自称的吗?
Dario Amodei:也不是他们自称的。
主持人:是别人这么叫他们的?
Dario Amodei:也许是别人这么叫他们的,但我从没用过这个词形容我的团队。
主持人:好,抱歉,我理解错了,谢谢你澄清。
Dario Amodei:当时我们确实在扩展这些模型。其实最初开发 GPT-3 的原因,正是出于我们在做 AI 对齐研究的延伸。
我、Paul Christiano(美国著名的 AI 安全与对齐领域研究者)还有一些现在的 Anthropic 联合创始人一起提出了一个叫人类反馈强化学习的技术,目的是让模型更能遵循人类意图。
这其实是另一个方法的前期尝试,那个方法叫可扩展监督,现在才刚开始真正发挥作用,能让模型理解更复杂的人类意图。
但我们发现,哪怕是这个更原始的人类反馈强化学习方法,用在 GPT-1 这样的小模型上也效果不理想,而 GPT-1 是 OpenAI 其他团队训练的。
所以我们扩展 GPT-2 和 GPT-3 的部分目的,就是为了能在更大规模上应用这种方法,研究它的效果。
这件事也让我意识到,在这个领域,AI 的能力和 AI 的对齐其实是紧密交织在一起的。我们很难只研究能力而不研究安全,也很难只研究安全而不研究能力。
真正能让这个行业走向更好方向的,是组织层面做出的决定,比如什么时候发布模型,什么时候做哪些研究,内部怎么安排系统相关的工作。
这些是我和一些后来成为 Anthropic 创始人的人决定另起炉灶的原因之一。
主持人:但你自己说过能力和安全是交织在一起的。而你就是 OpenAI 内部主导这些最前沿模型开发的人。
如果你离开了,他们肯定还会继续做下去。如果你是推动能力发展的那个人,难道你不是最合适的人去确保它也能安全发展吗?
Dario Amodei:我想说的是,如果公司要决定是否发布一个模型,要决定公司治理结构,要决定人员安排,对外表达方式,如何部署模型,如何与社会互动……这些决定并不是一个训练模型的人就能控制的。
我认为信任非常重要。公司的领导人必须是值得信任的人,必须是真心想让世界变得更好的人。不然的话,就算一个人技术上能力再强,实际上也只是在为一件错误的事情出力。
主持人:我相信你也听到过一些批评,比如黄仁勋就说,Dario 觉得只有他自己能安全地开发这些技术,所以他想控制整个行业。
Dario Amodei:我从来没说过这种话。这完全是谎言,是我听过最荒唐的谎言之一。
主持人:顺便说一下,如果我误解了黄仁勋的话,我道歉。
Dario Amodei:不不不,他说的话没错,但我觉得那些说法本身就很离谱。
事实上,我多次说过,我认为 Anthropic 的行为也已经说明,我们追求的是一种向上的竞赛。我这些年在播客上说过这个词,我认为我们公司的行为也在体现这一点。
所谓向下的竞赛是指大家都在争着更快发布东西,结果不管谁赢,大家都输了,因为我们可能发布了一个对手能用的危险系统,或者造成了经济问题,或者系统本身就不安全。
而在我看来,向上的竞赛从对齐的角度来说,不管谁赢,大家都赢。这种竞赛的方式是我们树立一个行业的榜样。
我们会做出一个好榜样。一个关键例子是负责任的扩展政策。我们是第一家发布负责任扩展政策的公司。
我们没有说别人也必须这么做,也没有把这当成什么竞争优势,而是直接公布出来,并鼓励其他公司也这样做。
几个月后我们发现,其他公司内部也有人在推动这件事,而我们公布这个政策,让他们能更有理由去跟领导层争取,说你看 Anthropic 已经做了,我们也应该跟上。
在可解释性研究方面我们也做了类似的事。我们会公开发布研究成果,让其他公司可以借鉴,尽管这些成果可能会带来商业优势。
宪法 AI 也是如此,对危险能力的评估也是如此。我们在努力为行业树立榜样。但要想起到这种带头作用,也需要我们是一家有竞争力的商业公司。
我从来没有说过我们公司应该是唯一一家能开发这项技术的公司。我实在想不出任何一个人能从我说过的话里得出这种结论。这种说法完全是恶意扭曲。
主持人:那我们就到这里结束吧。你找到了自己的影响力,说实话,你现在做的事情几乎就是梦想中的工作。想想 AI 能在生物领域带来的各种可能,这只是个开始。
但你也说过这是一项危险的技术。我很好奇,你对影响力的追求会不会反而推动你加快这项技术的发展,从而忽视了一个可能性,也许我们根本无法控制它。
Dario Amodei:我觉得,在整个行业里,应该是我比谁都更早、更明确地警告过这项技术的风险。
我们刚刚花了十到二十分钟在讲这事,而很多人,包括那些管理万亿美元公司的高管,都会批评我去讲这些风险。
我会被美国政府官员批评,被掌管着四万亿美元的公司的人批评,只因为我谈论这项技术的风险。他们还会强加一些完全与我说过或做过的事毫无关系的、很荒谬的动机。但我还是会继续这么做。
事实上,我认为,随着 AI 的营收和商业化速度指数级增长,如果我判断没错,再过几年,它将会成为世界上最大的营收来源,成为最大的产业。而很多公司掌舵者已经认同这一点了。
所以我们现在处于一种很可怕的状态,几千亿甚至可能高达二十万亿美元的资本,都在推动 AI 尽可能快地发展。
而我们这家公司虽然在绝对价值上很有分量,但相比那些资本来说还很小,可能就六百亿美金。我还是持续发声,尽管这会让一些人不高兴。
有些报道说美国政府里一些人对我们不满,比如我们反对 AI 监管暂停,支持对芯片出口管制,支持讨论 AI 的经济影响。每次我这么做,我都会受到很多同行的攻击。
主持人:但你还是默认我们能够控制它。我想指出的就是这一点。
Dario Amodei:我只是想说明,我在这件事上付出了多少努力,有多坚持。
尽管面前堆满了各种障碍、各种风险,尽管公司也因此承担了风险,我还是愿意发声,如果我真觉得这项技术完全无法控制,或者我觉得这就是在赌博。
有些人说,你觉得 AI 出问题的概率是 5% 或 10%,那你就是在掷骰子。我不是这样想的。
这是一场多步骤的博弈。我们每走一步,比如训练出下一代最强模型,就要建立更严格的测试机制。
随着我们离更强的模型越来越近,我发声的频率也越来越高,我采取的行动也越来越激烈,因为我担心 AI 的风险越来越迫近。
我们一直在努力应对这些风险,也确实取得了一些进展。但当我意识到,我们在风险上的进展赶不上技术发展的速度时,我就会更强烈地发声。
所以你问我,为什么我要这样,为什么会突然出来讲这些,就是因为指数级的增长已经到了一个让我担心的程度,担心我们的风险应对能力跟不上技术的发展速度。而我就是在对这点做出回应。
如果我真的相信我们完全无法控制这项技术,那我当然会非常担忧。但事实上我完全看不到这样的证据。每当我们发布一个新模型,我们控制它的能力都会变得更强。
确实模型可能会出错,我们需要对它们进行非常严苛的压力测试,但这不意味着我们无法应对它们可能出现的新问题。
如果我们现在就获得了远比现有模型强大的能力,却只用目前这些对齐技术,那我会非常担心,那我就会出来说大家应该停下来了,全世界都应该停。
我不觉得别人会听我的话,这也是为什么我认为出口管制是一个更有效的措施。
但如果我们在模型能力上提前了几年,而我们对齐和引导的技术还停留在今天的水平,那我肯定会主张我们要大幅放慢脚步。
我现在之所以在警告风险,是为了让我们不用被迫减速,而是能通过投资安全技术继续推动进步,推动整个领域的进展。
即使有一家公司愿意慢下来,这也是一项巨大的经济决策。但这不会阻止其他公司,也阻止不了那些把这看作生死之争的地缘政治对手。
所以我们能做的空间其实非常有限。我们正处在这样一个局面中:一方面这项技术有巨大的好处,另一方面竞争正在加速,而且这是一场由多方参与的竞赛。
所以我现在能做的最好的事,就是投资安全技术,加快安全进展的速度。我写过关于可解释性重要性的文章,写过各种安全方向为什么重要。
我们会公开发布所有安全研究成果,因为我们认为那是公共产品,是每个人都需要共享的东西。
所以如果一个人有个更好的策略,能在技术的好处、它的不可避免性和它的风险之间取得平衡,我非常愿意听。
我每天晚上睡觉前都会想这件事,因为我对利害关系理解得非常深,包括它能带来的好处、它能做到的事、它能挽救的生命。我亲眼见证过这些好处。我也亲眼见证过风险。
我们已经看到模型出过问题。我们在 Grok 模型身上就看到过例子。虽然有些人对此不屑一顾,但当模型开始行动、开始制造东西、开始主导医疗干预的时候,他们就笑不出来了。
当模型只说话时,人们还可以笑着谈论风险,但我觉得这是很严肃的事情。所以我认为,这个局面需要我们对风险和好处都有非常认真的理解。
这些都是高风险决策,需要以非常严肃的态度来做判断。而让我很担忧的一件事是,现在有一批人是真正的末日论者。
他们把我叫做末日论者,但我不是。不过确实有些人说根本无法安全地开发这项技术。我看过他们的论点,都是一堆乱七八糟的东西。
模型确实存在危险,包括对整个人类的危险,但不能因此就得出我们永远无法让它们安全的结论,我觉得这太荒谬了。所以我认为那是一种既不严谨又不道德的回应方式。
我也觉得,那些掌控着二十万亿资本,大家都有一致经济激励的人,他们一起说十年之内都不要监管 AI,说凡是担心 AI 安全的人都是想自己控制技术的人,我也觉得那是完全不严肃的、道德上站不住脚的说法。
我们已经做了各种研究。在我们觉得该发声的时候就会发声。当我们谈 AI 的经济影响时,我们有经济研究委员会,有实时追踪模型指标的经济指数。
我们也在发放研究资助,帮助大家更好理解这项技术的经济影响。
所以当一些对这项技术的成功投入远超我个人的人,随便就扔出一些人身攻击,我觉得这和那些末日论者的立场一样,是不严谨、不道德的。
我觉得我们现在需要的是更多的思考,更坦诚的态度。
我们需要更多人愿意挑战自己的利益,不是去搞那种随便的推特互喷,发布观点热帖,而是真正愿意花时间去了解现状、做研究,为这件事带来真正的洞见和启发。
我正在努力做这件事。我做得还不完美。但我正在尽我所能去做。如果能有更多人也愿意这样去做,那会非常有帮助。
主持人:Dario,这句话我在私下已经说过一次,但我想在节目的最后再说一遍。我非常感谢 Anthropic 所发布的内容。
我们从你们的实验中学到了很多,无论是模型的红队测试,还是像自动售货机 Claude 那样的实验。
虽然今天没来得及聊,但我觉得这些信息的公开确实让世界变得更好。所以谢谢你愿意坐下来花这么多时间和我聊。
Dario Amodei:谢谢邀请我来。