
图片来源:Shawn Ryan
Alexandr Wang,Scale AI创始人兼CEO,被誉为"AI数据之王"。19岁从MIT辍学创业,24岁成为全球最年轻白手起家亿万富翁。成长于美国核武器研发中心洛斯阿拉莫斯,父母都是物理学家,自幼展现出惊人数理天赋。他创立的Scale AI为ChatGPT等主流AI模型提供核心数据支持,估值超250亿美元,被比作"新时代的曼哈顿计划"。
Shawn Ryan:Alex Wang,欢迎来到节目,伙计。
Alexandr Wang:谢谢邀请我,我很兴奋。技术变得对国家安全如此关键,你对此非常热情。所以,我认为从根本上说,技术是我们必须搞清楚的事情。否则会变得非常危险。
Shawn Ryan:是的。其实我对此感到非常害怕。事实上,我们刚刚在楼下谈论你要孩子的事,也在谈话中提到了Neuralink,我不得不暂停一下对话,因为我有点担心Neuralink,但听起来你对此非常热衷。
Alexandr Wang:是的,我的意思是,我想等到我们弄清楚Neuralink或其他被称为大脑计算接口等不同的技术如何工作后再考虑要孩子。原因是,在你来到人世的前七年,你的大脑比你生命中的任何其他时期都更具神经可塑性,这种差距甚至是高出一个数量级的。比如,如果一个孩子出生时有白内障,他们在八九岁时才进行手术,人生头七年则无法看见外在世界,那么即便术后他们也学不会如何看东西。因为在前七年的发展阶段他的大脑能够学习如何处理眼睛传来的信号,而如果等到八九岁才有这些体验,他就无法学会看。所以说在早期生命阶段,神经可塑性极其重要。我认为当我们获得Neuralink和其他这些技术时,出生于有这些技术的年代的孩子将会以疯狂的方式学习如何使用它们,Neuralink甚至会真正成为他们大脑的一部分,而这种情况对于成年后获得Neuralink的人来说则不会成立。这就是我想要等待的原因。
我非常相信AI,AI会变得越来越聪明,越来越有能力,愈发强大,AI将不断做出更多更多事情。我们会有机器人,会有AI在未来的其他形式,而人类的进化速度却是有限的。人类虽然也会随着时间变得更聪明,但是自然选择和进化的速度很慢,这个过程的时间尺度可能是数百万年。按这个思路推演下去,你会发现AI将变得愈发聪明,不断改进,而生物学的进步速度则有限。因此在某个时刻,我们需要能够直接接入AI,需要让生物文明与所有硅基或人工智能并肩前行,出于人类利益考量,我们也希望能够出于人类自身的缘故来与之连接。
所以最终,我认为我们需要某种直接将我们的脑连接到AI和网络之间的接口,虽然这存在潜在危险,可能是你所恐惧的那种情况。但我们必须这么做,AI将会迅速发展,而人类的进步则相对缓慢,我们需要接入这种能力。
Shawn Ryan:我已经表达出对这一点的恐惧,但在没有分享我自己的恐惧的情况下,我更好奇,在你看来会发生什么意外情况?
Alexandr Wang:首先,显而易见的是有些公司会劫持你的大脑,比如直接向你的大脑发送广告,让你想要购买他们的产品等等,但更糟糕的是一个恐怖分子、对手或国家行为者侵入你的大脑、窃取你的记忆或操控你,我认为这是一个巨大的风险。我坚信直接连接某个人的大脑是一件相当糟糕的事情,因为你能够读取他们的记忆、读取他们的思想、甚至控制他们的思想。我和许多领域的科学家进行了交谈,还有很多人在从事这项工作,包括连接Neuralink的人,读心术和控制意识是这项技术在未来会走向的方向。
Shawn Ryan:所以,我们必须小心使用这项前沿技术,绝对不能搞砸。如果我们希望人类在AI持续变好的时候保持相关性,这一点是非常关键的。我曾采访过Andrew Huberman,你知道他吗?
Alexandr Wang:是的,我也和Ben Carson博士聊过这个观点,可以算是后续讨论,但他告诉我这项技术将帮助盲人看见,对某些活动、关节和骨头等问题的治疗也有所帮助,适合瘫痪的人。我当时问,如果它真的能够帮助盲人看见,那么他们能否将一个完全虚假的现实投射到你脑海中,也就是说你看见的可能是天空中各种不知名的东西,听起来是重建一个完整的虚假现实。Huberman答道是的,他们将有那种能力,但不仅如此,他们还可以操控你所有的感觉:触觉、嗅觉、味觉,甚至在你的大脑中插入情绪,比如恐惧等等。我当时吓了一跳,因为他们能操控你整个现实,创造虚假现实。我又问Ben Carson,他是世界知名的神经外科医生。他说,是的,绝对可以实现这样的事,而且他们能够用这项技术做些好事。但他又抛给了我一个问题,问我认为会发生什么并且这项技术最终是用于善还是用于恶。
Shawn Ryan:那么你对此怎么看?你觉得这是一种真正的可能性吗?
Alexandr Wang:是的,首先,我们今天对大脑的理解还不够,但最终我们会了解的,科学会解决这些问题,对吧?我刚刚提到的所有事情最终都是有可能的,你知道你的情感、你的感觉可能会被操控,这种感觉的操控已经在发生。在猴子身上已经得到证明,实验者能够将信息通过一个网格投射给猴子,让它们点击正确的按钮,他们通过接口连接到负责视觉处理的神经回路,能够把东西投射到它们的视野中,以至于猴子始终会点击实验者希望它点击的按钮,然后他们会给它一些奖励。因此,操控视觉、操控感觉、操控情感都将在较长的时间内实现,挖掘记忆、操控记忆也都是可能的。
此外,更令人兴奋的是,能够接入AI会使人类拥有关于一切的百科全书式的知识,就像在ChatGPT或其他AI系统那样,接入者能够以超人类的速度思考,能够处理的信息更多,可以立刻理解世界上发生的一切,我们可以从认知角度变成超级人类。但同时也有你提到的风险,那就是可能存在巨大的攻击向量。
Shawn Ryan:我不是特别懂技术,但你的公司Scale AI基本上是一个数据库,AI 用它来生成答案和回应你的提示,对吧?
Alexandr Wang:是的,我们做的事情有以下几个方面。我们帮助大公司和政府部署安全可靠的先进AI系统,基本上参与了整个过程的每一个环节。但我们最初因创造大规模数据集和数据冶炼厂而闻名。我们创建的大规模数据生产是支撑每个主要AI模型的动力来源。你在使用ChatGPT时,问的问题能够被很好地回答,正是因为我们能为这些系统提供数据。随着AI越来越先进,我们持续为这些模型注入更先进的科学信息和数据。
此外,我们还与一些最大的企业和政府合作,比如美国国防部(DoD)等机构,帮助他们利用自己的数据以及我们的策略,部署并构建完整的AI系统。作为公司,我们一直专注于几个重要客户,如何为这些客户创造巨大的影响力,我们与全球最大的银行、制药公司、医疗系统、通讯公司甚至是美国政府合作,帮助他们将现有的操作流程转变为通过AI实现的完全不同的方式。比如,我们可以帮助世界上最大的医疗系统之一提升物流效率、在最有效的方式下为数百万患者提供护理、提高诊断效率以及改善患者的整体健康状况。对于DoD,我们能做的很多,能够帮助他们更高效地运营,并最终实现更自动化的方式。我相信你比任何人都更了解这一点。
那么,我们如何开始使用AI实施这些系统呢,我们稍后会在访谈中深入探讨这个话题。我最开始的想法是,给AI提供数据,然后它根据这些数据生成答案。我的问题是,如果你脑中装了Neuralink,而它能接入你的数据中心,那会不会很容易就能向数据中心输入虚假信息,然后这个信息再传播到每一个植入Neuralink的人?我举个例子,我是基督徒,很多人认为AI会操控圣经,改变很多内容。那么因为每个人都在访问这些数据,如果让这些内容进入AI数据中心,它就成了新的“真理”。
Shawn Ryan:没错,这是一个巨大的风险。这也是我认为,美国或者其他民主国家在AI领域领先,特别是在与其他国家竞争时非常重要的因素。你现在就可以用AI做很多宣传,影响人们的思想。可是,一旦我们进入像Neuralink这样的大脑计算接口,直接能向人的大脑注入思想,那将是前所未有的巨大权力。那么,谁来管理这种权力,谁来确保它的使用是出于正确的目的,这些都是我们必须面对的最重要的社会问题。你说,我们将从哪里开始呢?你会信任谁来控制?
Alexandr Wang:控制大脑?我觉得这是个有趣的问题。我们早餐时也聊过,今天的媒体已经能够控制你大脑的部分,或者说控制你对事物的看法,影响你拥有的观点或信仰。你知道,我们聊到过,媒体是否有时候会将某些军事力量描绘得比实际更可怕。你可以把它看作是低级宣传、信息操控。现在,这种事情大约是1到2级的影响力,可是一旦有了Neuralink或其他设备,那可能就变成9或10级了。
而且我觉得这真的很难控制。我认为没有任何一个国家做好充足准备来治理像我们接下来几十年将要发展的技术那样强大的技术——比如AI。我不知道我们是否准备好大脑计算接口,也不确定是否准备好大规模机器人技术。这些技术比任何过去的技术都强大得多。有些人会说,AI就像是新型的手机一样,它将和手机一样重要,但我认为,AI将比手机更强大,重要性也要高千倍,影响力会更大。即使我们还没有很好地监管手机的使用,未来的技术也将非常难以控制,但我们必须确保能做得更好。每个人都能理解我的意思,你基本上可以瞬间拥有一支军队,一整个国家都能接入你的思想和思维方式,操控整个民众去做任何你想让他们做的事——希望这能带来好的结果。
Shawn Ryan:但你知道,一切事物总是会发生变故。不过,你对这件事充满热情。你会把它植入自己吗?
Alexandr Wang:我会选择植入,但在那之前要确保几件事。首先网络安全的防御态势需要非常强大,以确保我能抵御任何网络攻击,特别是针对我的大脑接口的攻击,这是一个很大的门槛。然后,这项技术需要足够安全,以确保它不会在任何重大方面改变我的意识。这是我需要确保的非常重要的两点。
Shawn Ryan:现在有很多讨论人类是否可以永生,怎么不死。很多讨论都集中在如何保持人体健康,如何保养自己,如何治愈疾病,让人类活得更久。但我认为,真正的终极目标是我们要学会如何将意识从肉体的大脑中上传到计算机。我把Neuralink或其他类似的大脑与计算机之间的桥梁看作是迈向这一目标的第一步。
Alexandr Wang:这真是另一个话题了。你是说我们应该做什么,是的,我们应该能够上传我们的意识,我觉得我们现在好像进入了深层次的科幻领域了,不过我认为,随着时间的推移,这项技术最终会存在。我觉得有一天技术肯定会做到,只是目前我们离这个还很远,今天的技术还没有那么成熟,Neuralink这类技术也还只是处于一个非常初步的阶段。
那么,假设50年后,这项技术已经存在了,我们在这里坐着,你问我:“人们会把他们的意识上传吗?”我认为会有一些人愿意尝试,尤其是那些临终病人、面临死亡的人,还有一些非常前卫、愿意尝试这些新技术的人,他们为了实验和探索这个新领域而去做尝试。然后,随着这些人开始上传他们的意识,他们会拥有了数字化的意识,从而拥有了某种程度上的永生,这可以说是最接近真正的永生的方式了。所以,一旦技术存在并且成熟,它可能会成为大多数人都趋向的一条自然道路。
Shawn Ryan:你觉得如果你的意识被上传了,会发生什么?你会上传到什么地方呢?比如云端之类的?
Alexandr Wang:是的,意识应该会上传到云端。
Shawn Ryan:你认为把意识上传到云端后,还能继续体验人生吗?
Alexandr Wang:嗯,这个问题挺有意思的。
Shawn Ryan:你怎么看?
Alexandr Wang:好,我先说一下我的想法。我是机器人技术的超级粉丝。我觉得我们现在基本上处于机器人革命的开端,还处在非常初级的阶段,但很多公司已经开始研发人形机器人了,这些机器人会变得非常厉害,且会被应用于制造业、工业化等多个领域。我觉得随着技术的进步,成本会大幅下降。最终,如果被上传到云端的意识可以下载到一个人形机器人里,你就能通过这个机器人去体验现实世界,就像我们现在一样。或者你也可以在某种模拟的宇宙中继续生活,像玩视频游戏那样在云端生活,这也是一个可能的替代方案。
Shawn Ryan:哇,这真是个大话题。那你认为我们死后会发生什么?Elon Musk总是谈论我们生活在一个模拟世界中,我记得第一次听他说这个时,我不相信我们能在模拟世界中生活,但随着AI技术的不断进步,尤其在模拟现实方面的能力不断进步,我开始不确定我的判断。你看过Sora、VEO这些AI视频生成模型吗?它们能生成非常逼真的视频,甚至很多人都很难区分AI生成的视频和真实视频之间的差异。随着这项技术的发展,我越来越觉得我们可能真的生活在一个模拟世界中。
Alexandr Wang:天哪,这个话题已经足够令人震惊了。
Shawn Ryan:那么你怎么看我们会生活在模拟世界?
Alexandr Wang:这个问题就像是任何关于来世的想法或者宗教思想一样无法证伪,我们无法证实我们生活在一个模拟世界中。但我之所以觉得这有可能的,是因为我相信,在有生之年,我们将能创造出一些非常逼真的现实模拟技术。
我认为,未来几十年里,我们将能够模拟出不同版本的世界,且它们会有极高的真实度。如果我们作为一个智能物种能制造出上百万个模拟世界,那么从概率上讲,我们很可能也只是某个更高级、能力更强的物种所创造的模拟世界中的一部分。
Shawn Ryan:你觉得在死后我们的意识会去哪里?
Alexandr Wang:如果我们真的是超级先进的机器人,那也许我们的意识会被下载到另一个身体里,进入一个新的“生命周期”。也就是模拟世界会持续运转,一旦你从某个实体中“下线”或“退役”,你的意识就会被上传到另一个实体中。
不过,我觉得还有一种可能的情况:意识可能根本就没那么重要。随着AI模型的不断进化,变得越来越智能,我们也许最终会创造出一些“意识模型”,这些模型可能具备某种程度的“意识”。如果意识是可以被工程化的,那一切都有可能发生,一切都不再有界限。我们将会有正确意识的模型,这是一种可以被工程化的东西。如果这是一种可以被工程化的东西,那么一切都将不再受限,想起来真的很疯狂。
Shawn Ryan:但让我们进入采访吧。现在有一个大家都在思考的大问题。人工智能是下一个石油吗?
Alexandr Wang:在某种程度上,是的。但也在某种程度上,不是。在某些方面,人工智能绝对是下一个石油。人工智能将从根本上成为未来任何经济、任何军事、任何政府的命脉。如果一个国家能够利用人工智能使其经济更高效,在经济中实现部分自动化,进行自动化的研究与开发,利用人工智能推动科学进步,那么这些有效采用人工智能的国家将会实现几乎无限的GDP增长。而不采取这些措施的国家将会被抛在后面。所以在某种程度上是未来每个国家的燃料。顺便说一句,我认为硬实力也是如此。如果你想知道未来的军事将会是怎样,或者未来的战争将会是什么样子,人工智能将是这一切的核心。我相信我们会深入探讨这个问题。
然后,与石油不同的是,石油是一种有限的资源。偶然发现大量石油的国家只会拥有有限的储备,到某一点,石油会耗尽,就像挪威一样。石油会在某个时期为国家提供权力和经济财富,但你耗尽它之后需要寻找更多的石油。而人工智能将是一种技术,它将持续不断地自我积累、增值,意味着更聪明的人工智能会带来更大的经济实力,而这又意味着你可以构建更聪明的人工智能,这样一来就会有更多的经济实力,依此类推。所以,将会有一个飞轮系统不断推动人工智能的进步,这意味着它不会是一个时间有限的资源,它将继续以加速度前行,持续不断。
而数据是其中的一部分,在人工智能进步过程中占据了重要地位,是人工智能更新迭代的核心部分。实际上,我通常喜欢将数据与石油相比,而非人工智能。这实际上是我想要表达的。
Shawn Ryan:是的,我认为这是完全正确的。如果你考虑人工智能,到底如何制造人工智能呢?
Alexandr Wang:有三个要素。首先是算法,实际上进入人工智能系统的代码,真正聪明的人必须编写这些代码。我以前曾经编写过一些这样的算法。然后是计算能力,也就是大型数据中心的能力,你需要有能力为人工智能的运行提供动力,需要有足够的芯片可以放入,这是一个大型工业项目。最后是数据,拥有所有这些馈入算法用以学习的数据至关重要,这实际上是许多智能的原材料。所以我认为数据最接近于石油,它是馈入这些算法、馈入芯片以使人工智能如此强大的东西。
我们对人工智能的所有了解都是,建立在这三者——算法、计算能力、数据之上的,你在这三者上的表现越好,你的人工智能就会越好。这全都关乎在这三者上不断改进。
Shawn Ryan:那么当我们看到像ChatGPT、Grok这样的东西时,它们是在共享同一个数据中心吗,还是完全不同的数据中心?
Alexandr Wang:它们都是各自拥有不同的数据中心。这实际上是公司之间竞争的主要方面之一,谁能够确保更多的计算能力,建设更大的数据中心,因为最终,随着人工智能的不断强大,问题就变成了你可以运行多少个AI?所以假设一秒钟,我们获取到一种,能够进行自动化网络攻击的强大人工智能。那么它能够登录任何类型的服务器,比如尝试去攻击某个网站,或者尝试去侵入某个系统。那么问题就是,如果我拥有它,我能够运行几个这样的?我能运行一千个这样的副本吗?我能运行一万个这样的副本吗?我能运行一亿个这样的副本吗?这一切最终都取决于你有多少数据中心在运行。然后这又归结于,你为这些数据中心提供了多少计算能力,你有多少芯片可以在这些数据中心中运行,你又能将它们保持在线多长时间。且是什么数据在持续不断地为这些模型提供动力,以使它们变得更好。这就是人工智能公司之间竞争的主要方式之一,像xAI、Elon的公司,还有OpenAI、谷歌、亚马逊、meta等公司,竞争的主要方式就是现在谁能够在未来五到六年内获得更多的计算能力和数据中心位置。因此,五、六年后的战斗实际上是在今天展开的。
Shawn Ryan:这真令人着迷。在我们进入你的生活故事之前,我们先来看看一位嘉宾的提问。这是来自Kevin O'Malley的问题:随着人工智能现在能够实质上复制我们现实中的许多方面,您是否认为未来所有在审判中呈现的视频或照片证据都会变得可疑,因为任何证据都有可能是通过人工智能工具复制的?
Alexandr Wang:是的,这和我们刚才所谈论的内容有关系。我确实认为人工智能将使你能够进行极其疯狂的仿真。而且我认为我们的法庭对此还没有做好准备。正如Kevin所说,人工智能将能够生成非常逼真的视频和极具说服力的图像,而实际上我们甚至还没有真正达到那个点。现在你仍然能够辨别这些视频或图像是否是AI生成的。但随着技术的进步,视频的质量将会越来越好,以至于无法与真实视频区分。我们该如何辨别什么是真实的,什么是AI生成的呢?
首先,人们需要有非常好的辨识能力。实际上如今的孩子们已经拥有了更好的辨识能力,因为他们是在互联网上长大的,网上充斥着各种信息,他们已经学会了更好地辨别信息的真伪。然后第二点是,各方面都在提出政策和监管的地方,这将会是一个主要问题,比如,如果在审判中使用了伪造的视频或图像,但最后发现它是伪造的,那么这将会有什么后果?我认为需要调整这种情况,伪造证据或伪造东西可能是一个更严重的罪行,可能是所有罪行中最为严重的。而有效地抑制这些工具使用的前提是,我们设置了正确的激励机制。我想到的第一件事就是美国政府,政府对黑水公司的处理就是删除了证据。而这次,政府不仅没有删除证明,而是可以制造出新的证据,比如一场在巴格达大源广场的假枪战的现场并证明他们有罪。我们在Brad Gehry、Eddie Gallagher、黑水公司案件上都见过这种情况,我在社交网络中也看到过很多。再看看欧洲各地的选举对策,指责Ceaucescu在俄罗斯影响下产生的影响,法国的Marie Le Pen,等等。我记得他们在大约六个月前谈论过在德国拉拢某人,而这真是疯狂。这让我感到非常害怕,因为他们可以随意诬陷任何人。我认为AI的确会导致今天掌权的机构将获得更大的权力。它不会自然而然地让权力变得均衡,而可能使得权力集中化。因此,我们需要建立机制加以调控,以便我们可以信任这些政府机构。否则,事情将不会有好的结果。
Shawn Ryan:好吧,让我们聊聊你的故事,我还有些GIF素材。
Alexandr Wang:我喜欢GIF。说回正题,我是在新墨西哥州洛斯阿拉莫斯长大的。我父母都是物理学家,在当地国家实验室工作。那里是原子弹的诞生地,《奥本海默》电影里一半场景都发生在我的家乡。我现在带的是洛斯阿拉莫斯国家实验室的帽子,还有纪念币:这枚是关于原子弹的,这枚纪念实验室主任诺里斯·布拉德伯里,还有一枚是"原子弹之父"主题的。另外我还有曼哈顿计划解密文件的复刻版,当年发给科学家们的操作手册。
Shawn Ryan:太酷了!这个火箭模型套装是?
Alexandr Wang:给孩子的小礼物。
Shawn Ryan:他们肯定爱不释手。谢了兄弟,这些放工作室绝对拉风。
Alexandr Wang:说起来挺魔幻的。现在人们总把AI比作新时代的曼哈顿计划,而我偏偏就成长在曼哈顿计划的发源地,这种宿命感很微妙。
Shawn Ryan:童年时你对什么最着迷?
Alexandr Wang:我出身物理学世家——父母是物理学家,祖父也是。从小饭桌上的话题就是黑洞、虫洞、外星生命、超新星这些宇宙奥秘。四年级参加新墨西哥州数学竞赛拿了冠军后,我的好胜心被彻底点燃,从此沉迷各类数理竞赛。
Shawn Ryan:等等,四年级学什么数学?
Alexandr Wang:父母二年级就教我代数了,七八岁开始摆弄方程式。到四年级时已经掌握基础代数和几何,初中开始学微积分和大学数学,高中则疯狂迷恋编程——突然发现比起纯理论,用代码创造实物更让人兴奋。
Shawn Ryan:说到外星话题,你们饭桌上讨论过UFO吗?你觉得外星生命存在吗?
Alexandr Wang:这就要提费米悖论了:在拥有数万亿星系的宇宙中,只有地球存在智慧生命的概率几乎为零。但为什么我们没发现外星文明?我认同"黑暗森林"假说——高级文明都刻意保持沉默,因为暴露坐标可能招致灭顶之灾。就像在黑暗森林里,谁先点篝火谁就会成为猎物。
我采访过不少相关人士,但所有"证据"最后都指向"机密文件"这种说辞。最近NASA发现土星环全是水冰,火星疑似存在金字塔遗迹...我在想,或许生命会随恒星周期在太阳系内"迁徙"?比如五十亿年前火星存在文明,灭绝后轮到地球...
Shawn Ryan:这个假说很有趣!毕竟恒星演化会改变行星宜居带。不过和意识本质、死后世界一样,这些问题我们可能永远找不到答案。 你父母在洛斯阿拉莫斯具体研究什么?
Alexandr Wang:他们从事涉密项目,至今持有能源部安全许可。小时候我天真地以为实验室只是普通科研机构,直到大学才猛然醒悟——2018年在那里重启了核武器核心部件生产。现在想来,父母大概率参与的是核武器研发。
Shawn Ryan:真是硬核童年!你除了数理之外还有什么爱好?
Alexandr Wang:我小时候非常痴迷小提琴,每天都会练习一个小时左右。很大程度上是因为在某些领域,完美本身就蕴含着一种极致的美感。我觉得这一点适用于很多艺术形式、音乐,甚至生活中的方方面面。即便在我现在的工作中,我也能感受到这一点。但当时的感觉是,如果你能通过练习完美演奏一首曲子,那种美是无可比拟的。而在达到完美之前,整个过程可能一塌糊涂。这种“完美即美”的概念对我很有吸引力,小时候觉得特别迷人。
Shawn Ryan:所以你是从小就追求完美,现在依然如此?
Alexandr Wang:是的。不过现在我会说,追求完美主义是一种奢侈,人类很难享受这种奢侈。现实是超级混沌的,坏事不断发生,好事也不断发生,我变得更务实了。但完美并不是一个可行的目标,我们永远无法达到完美,却依然能欣赏完美的美。其实我自己也是个完美主义者。
Shawn Ryan:我也在和完美主义斗争,我骨子里是个完美主义者,但完美主义有时会阻碍成功。你有这种感觉吗?听起来问这个问题有点怪,毕竟你是24岁就成为全球最年轻亿万富翁的人,现在28岁了。问“完美主义是否拖累了你”似乎有点矛盾,但它真的影响过你吗?
Alexandr Wang:影响过。但后来我的思维发生了转变,意识到很多时候应该遵循80/20法则——花20%的精力达到80%的效果,然后接受这个结果,并不断重复这个过程。这种思维和完美主义是背道而驰的,完全相反的。现在我认为,有些事确实需要追求完美,但更多时候你得接受不完美,速度才是关键,而非完美。所以我现在的心态是,在大多数情况下速度比完美更重要。可以说,我在这方面经历了一个完整的转变过程。
Shawn Ryan:是什么促使你转变的?
Alexandr Wang:Elon Musk在公司危机时会对员工说:“想象你身上绑了一颗炸弹,如果不解决问题,它就会爆炸,那你会怎么做?”通常人们会因此集中精力,迅速找到解决方案。创业很多时候就是这样,生死攸关的高压时刻逼着你必须行动,否则就完蛋。你只能快速决定最佳行动方案并执行。我觉得这种必须快速应对的现实,逐渐重塑了我的思维。
Shawn Ryan:你有兄弟姐妹吗?
Alexandr Wang:有两个哥哥。我大学辍学了,而我两个哥哥都有博士学位——一个是经济学家,另一个是神经科学博士,他们都很聪明。
Shawn Ryan:一家子天才啊!
Alexandr Wang:我爸妈可能有点遗憾我们没人成为物理学家,哈哈。
Shawn Ryan:但他们肯定对你现在的成就很满意吧?
Alexandr Wang:是的,他们为我骄傲。
Shawn Ryan:你是在哪里上学的?是公立学校吗?
Alexandr Wang:我在洛斯阿拉莫斯公立中学读书。那个小镇当时只有1万多人,现在因为核制造产业人多了些。但那时候就一所公立中学,一所公立初中,几所小学。我很幸运,那里的公立学校很棒,但本质上和别的公立学校没区别。每天放学后,我就回家埋头学数学和科学。
Shawn Ryan:普通二年级学生学什么?加减法?乘法表?而你那时已经在学代数了,这种差距是什么感觉?
Alexandr Wang:说实话,我在课堂上经常走神,因为内容太简单了。但好在我的老师非常支持我,他们真心希望我能继续深入学习。我很感激这一点,毕竟不是所有学校都这样。
Shawn Ryan:大学你是去的MIT,对吧?
Alexandr Wang:对。
Shawn Ryan:感觉如何?
Alexandr Wang:先从几年前说起吧。我其实高中没读完,就辍学了。
Shawn Ryan:哦?你从高中退学了?
Alexandr Wang:是的,我提前一年退学,去Quora那家科技公司工作。Quora就是那个问答网站。我在那里干了一
年。
Shawn Ryan:然后呢?
Alexandr Wang:干了一年后,我决定该去上大学了,就去了MIT。
Shawn Ryan:你真的15岁就能难倒博士?
Alexandr Wang:虽然没那么早,但16、17岁时我能力已经比那些博士强许多了。
Shawn Ryan:难倒他们的到底是什么?
Alexandr Wang:那会儿还是很早期的AI,连“AI”这个词都没完全流行,当时多叫machine learning。核心是训练各种算法,对社交媒体内容重新排序、提升用户黏性,或者让用户更容易“沉迷”信息流。我当时的工作就是研究哪种算法能创造最大用户参与度。
Shawn Ryan:16、17岁就能难倒博士,对你来说是一种怎样的体验?你会想“天哪,我也太聪明了”吗?
Alexandr Wang:我很早就意识到,专注是最关键的。我并不一定比别人更聪明,但我从小对数学超级专注,高中又对物理专注,编程也是如此。如果你能专注投入大量时间和精力,你就能进步得特别快。我一直坚信,付出超额努力会让你比别人进步更快许多。很多人或许没那么专注,或不愿多走那extra 10 miles,所以他们进步就慢了。这就是我取得这么多成就的秘诀:focus和overdoing it。
Shawn Ryan:你辍学时,父母怎么想?
Alexandr Wang:他们一直希望我拿到PhD、从事科学研究,把追求科学和知识看得高于一切。我当时总跟他们说,这只是一段小插曲,最后还是会回来完成学业、拿到PhD。但说多了他们就不信了,我也就没再提。
Shawn Ryan:那为什么决定回去上学?
Alexandr Wang:有两点原因:一是我真想快速系统地学习 AI,虽然一边工作也能学,但最好的方式是把全部时间投入到学校;二是我不想牺牲大学时光——很多人都会把大学时光视为人生最美好几年,我不想放弃那段经历。在 MIT 的一年里,我把能上的AI课程都上了。刚入学时,我选了最难的machine learning课程,教授正是我的freshman advisor。她起初认为我作为新生吃不消,但同意让我先试几周。第一场考试我运气好,考的内容正是我擅长的部分,拿到了高分,班上还有数百人。之后她就放手让我选任何课,我便一路深入到 MIT 的所有AI相关课程。
那一年,DeepMind推出AlphaGo——首个击败世界顶尖围棋选手的AI,标志着AI在最难策略游戏上的重大突破。受到启发后,我开始自己tinkering AI项目。我曾想在冰箱里装摄像头,检测室友偷吃我的食物。但很快我意识到,无论做什么应用,都受制于数据:没有足够的数据,模型就会频繁出现false positives和false negatives。那一刻我顿悟——要让AI真正发挥作用,需要比我当时拥有的数据多上百万倍。我环顾四周,发现算法、芯片和算力方面人才济济,却没人专注于数据供给这一关键环节。当时19岁的我再也按捺不住:“既然没人做,那就我来做。” 于是我在MIT退学,创办了自己的公司,一切就此开始。
Shawn Ryan:冰箱AI能告诉你舍友是不是在偷吃你的食物?
Alexandr Wang:那是问题的一部分。我当时正想把它做出来,可是后来意识到我的数据远远不够,它总是误报、漏报,各种问题层出不穷。然后我才恍然大悟,如果真的想把这个产品做出来,我需要的数据量至少要比现在多一百万倍。这对于任何人想要做的AI项目都同样适用。那就是这个想法的起源。
Shawn Ryan:所以你离开了MIT?
Alexandr Wang:对,我记得我一下飞机就从波士顿飞到旧金山去创业。那时我才十九岁,几乎是立刻就离开了学校,在旧金山开始写代码。我当时参加了一个加速器项目,叫Y Combinator。它就像是给初创公司举办的“饥饿游戏”。夏天一开始有一百家创业公司,大家都在拼命干,努力做出里程碑式的进展。项目结束时有个Demo Day,所有人都要展示自己的公司和成绩,争取投资。它真的是饥饿游戏的感觉:如果拿到投资就算赢了,没拿到就算输。那就是公司的开端。我们最终拿到了不错的投资。
Shawn Ryan:你当时做什么业务?
Alexandr Wang:那时候主要是为AI提供数据。AI还处于非常早期的阶段,用例也很“蠢”。我们帮助过一家定制 T 恤公司,用AI检测用户上传的不适合印刷的设计,比如含有血腥暴力或非法内容的图案。现在想想挺傻的。然后我们又帮了一家家具电商,用AI优化搜索算法。大概三个月后,我们开始和自动驾驶公司合作,这才成为我们头三到四年真正的主战场。我们与通用、丰田、Waymo等所有主要汽车厂商合作,帮他们训练自动驾驶汽车。
Shawn Ryan:你在跟多少竞争对手竞争?
Alexandr Wang:在创业圈里,你总有几十个竞争对手。当时也一样。虽然竞争激烈,但就像数学竞赛,我不怕竞争。我们专注于如何为自动驾驶汽车提供最优质的数据集。核心是所谓的“传感器融合”:在不同传感器都检测到相同物体时,如何汇总信息判定,这到底是一个人、一辆车还是一辆自行车。这就是我们公司的专业所在,我们也因此一路领先,团队规模发展到大约一百人。
Shawn Ryan:再往前一点说,你一个十九岁的孩子刚从MIT辍学就到旧金山,怎么培养领导力?怎么结识建立团队的关键人?
Alexandr Wang:一开始最关键的就是看谁愿意给你投资。
Shawn Ryan:如果你拿到了投资,就是你在和竞争对手较量,当时你根本没有团队,完全是一个人对抗。
Alexandr Wang:是的,然后我几乎每天都在写代码。后来,我们获得了Y Combinator的投资,又拿到了一个叫Accel的投资机构的资金——他们曾是Facebook的早期投资者之一。有了这些优质投资人之后,他们帮助我组建团队、寻找合适的员工。实际上我主要招的都是在学校认识的、比较信任的人。
Shawn Ryan:真的吗?因为你能信任他们吗?
Alexandr Wang:我倒觉得更像是他们信任我。要是当时我去找一个旧金山的25岁工程师,说 “嘿,我们一起搞这个项目”,我根本没有任何信誉。我记得我会约他们喝咖啡,对他们说,“这就是我们在做的事,超酷的,你应该加入我们。” 结果他们就只是 “好吧,我还是回去上班了。” 所以早期除了那些和我一起在大学里就是朋友的人之外,我没有任何信誉。也正是因为这样,我才能成功招募到许多老同学来一起创业。
他们也有人辍学加入,有些人是直接中途退学,有些人当时已经是大四或临近毕业,毕业后就来了,就这样形成了团队最初的骨干。随后我们开始与大型汽车厂商以及那些非常前沿的自动驾驶公司合作。随着势头不断增强,团队规模也逐步扩大。
Shawn Ryan:那么你的商业直觉从哪里来?还是你雇了专人来打理这一切?
Alexandr Wang:大概一年左右,我才正式聘请了一位 “Head of Business”。在那之前,所有业务都是我一点点学着做。
Shawn Ryan:产品如何推广?
Alexandr Wang:我先把它全部编码完成,然后发布到那些可供startups上线的创业网站上,结果在Twitter上的小圈子里“微爆”了一把。那点早期流量就像一粒种子,促成了后续的所有增长。当时非常艰难:我几乎把所有时间都花在写代码上,偶尔发点东西到网上,又到处求朋友帮忙点赞、投票。
Shawn Ryan:那时公司叫Scale API,对吗?
Alexandr Wang:没错,一开始我们叫 Scale API,因为那个域名可以注册。一年半后改名为 Scale AI。早期创业真是“粗犷”,回头看看那些大公司当年的样子,非常原始。但是最酷的是,我们很快就投身到自动驾驶这个属于当时最伟大的科学与工程挑战里,并最终取得了成功。我们的客户Waymo现在已在San Francisco、LA、Phoenix等地大规模运营robotaxi服务,并将进驻更多城市,成就令人惊叹。
Shawn Ryan:哇,整家公司增长有多快?
Alexandr Wang:五年后,我成为全世界最年轻的亿万富翁。最初的12个月,团队只有我和一两个合伙人;第二年扩张到约15人;第三年迅速增至近100人;随后又达200、500,一路增长到现在的约1,100人。起初我们专注于自动驾驶,三年左右开始将触角伸向国防,与DoD合作。
Shawn Ryan:你们在国防领域做什么?
Alexandr Wang:我们主要帮DoD解决数据问题,以便训练AI系统。首批项目是对卫星影像、合成孔径雷达影像及其他各类俯视影像进行图像识别,可谓DoD自己的数据“冰箱 AI”问题:他们需要高质量、有标注的图像数据才能检测目标。前几年我们承担了数据集的搭建与标注工作,最近则协助他们将AI能力大规模部署到前线。
Shawn Ryan:DoD在影像识别方面具体需求是什么?
Alexandr Wang:基本思路是让AI而非人工来检测核反应堆、导弹发射井等目标,从而大幅降低人工误判与人力成本,并提升准确率。如今卫星数量爆炸式增长,图像量远超人工可处理范围,这正是我们要解决的首要问题。
Shawn Ryan:你们如何“造血”式地提供这些数据?
Alexandr Wang:这分两部分:一是搭建数据库,用AI算法合成大量训练数据;二是依靠人工审核,以保证数据质量。为此,我们在St. Louis, Missouri(靠近 NGA, National Geospatial Intelligence Agency)建立了一个AI数据处理中心,招募影像分析师验证AI输出,确保向系统反馈的数据既准确又高完整度。
Shawn Ryan:下一步怎么走?
Alexandr Wang:除了在影像和计算机视觉上持续深耕,我们还在与DoD合作更大规模的AI项目。目前正在参与名为Thunderforge的计划,目标是用AI支撑军事规划与作战筹划,将原本需要数天的流程压缩到数小时。
Shawn Ryan:听起来像Palantir?
Alexandr Wang:对。它们各自瞄准问题的不同环节,最终可以很好地协同。但这只是我们更宏大概念——所谓“agentic warfare”的一部分。“agentic warfare”就是将AI及AI agents引入战争。核心思路是:能否将现有 “humans in the loop” 流程,转变为 “humans on the loop”?也就是说,不再是人做完一环交给下一个人,而是由AI agents承担大部分工作,人类只负责审核和验证。若将两者并列比较:传统模式中,每个环节由具备多年单领域经验的专家执行;而在智能化战争中,AI Agent拥有跨领域数千年累积的知识,且执行速度可提升数百倍。
这一变革涵盖多个层面。就感知和情报收集而言,AI能加速从海量传感器数据中提取洞见;就作战筹划而言,可以大幅压缩整个流程;在战术决策上,也能显著提速。总之,它渗透到各级战争和各种作战要素里。但归根到底的问题是,如何利用AI Agent来更快、更灵活地完成任务,让人类只需对其成果进行审核。
Shawn Ryan:当你提到它在任务规划,尤其是在战术环境中能提供帮助时,能否举个例子说明它如何加速战术环境中的任务规划流程?
Alexandr Wang:比如说,我们现在正与 Indopecom 和 Ucom 合作,后续会更广泛部署。假设出现了一条警报检测到一些意料之外的情况,我们需要立即制定应对方案。
Shawn Ryan:比如什么样的警报?
Alexandr Wang:比如说,有一艘未曾预料到的舰船突然现身。这条警报会传递给一系列AI系统,第一步是感知:系统会检索并重新分析我们所有的传感器数据,评估对该舰船的掌握程度。人工分析师需要逐条查看地面观测资料并进行大量核查,而AI Agent则可以自动浏览所有历史传感器数据,迅速发现——哦,这里雷达曾捕获到一个目标,这里卫星影像也出现了对应的信号——并将这些信息拼接出该舰船的大致轨迹。在完成态势感知后,就要制定可能的行动方案。AI Agent会提出多种选项,例如开火、观望、重新部署部队以更好应对,或者调整卫星轨道以加强监视。接下来,系统会将每种行动方案投入模拟器,进行实时战棋推演。它会模拟“如果开火,战场会怎样演变?”、“加强监视后,我们可能面临怎样的风险?”等场景,并快速运行数百万次仿真,以应对信息不完备带来的不确定性。
Shawn Ryan:它会实时进行战棋推演。
Alexandr Wang:没错,会实时战棋推演。系统会在模拟器中运行,告诉我们:如果我们开火,会发生什么?这是我们目前对红方和蓝方的了解。开火后的战棋推演结果就是这样。如果我们只是增强监视,红方可能采取哪些行动来对付我们?这就是我们要承担的风险。
而好处在于,一切都是自动化的,你可以运行数百万次推演和仿真。这样就不只是让军事策划者在“人类时间”里手动演算一两次,而是基于情报不完备的现实,通过数百万次模拟来探究各种不确定情形下可能出现的所有结果。然后,你针对每种行动方案各自运行数百万次模拟,并将这些结果汇总成一份完整的简报和演示,呈现给指挥官:这些是我们考虑过的行动方案;这些是各方案的可能结果;这些是每种情形的仿真场景示意;还有对应的发生概率。最后,由指挥官做出决策。
Shawn Ryan:哇,所以这就是它的运作原理:它给出了可能的行动方案、每个方案的后果及其概率,并迅速生成可视化的战棋推演结果。
Alexandr Wang:没错。
Shawn Ryan:它会在几秒内给出结果吗?
Alexandr Wang:现在大概需要几个小时,因为这些模型还没快到未来的水平。但对比之下,人类今天往往要花几天时间。这并非缺乏意愿或能力,而是因为情况极其复杂。一旦一艘舰船突然出现,必须考虑的因素太多。关键的变化就在于,大幅加快了态势感知,加速了解各种可行方案、可能后果,并迅速将这些信息呈现给指挥官。
Shawn Ryan:它会给出推荐方案吗?
Alexandr Wang:这点我们一直在讨论:不想让指挥官完全“睡着”般地照搬AI的建议。我们的军事指挥官是世界上最优秀的决策者,必须综合所有潜在后果来做出最终判断,所以我们更希望他们能保持对决策的主导,而不是机械地接受AI的第一选项。
有趣的是,下一步更令人震撼:假设只有美军掌握这种能力,那当然优势巨大;但如果其他国家也拥有同等能力,双方都会瞬时完成全流程战棋推演,然后陷入抉择:既然我们都能完美模拟对方行动,要选哪条路线?这时就几乎成为一种心理博弈——取决于我们的情报有多准确。我们对对方指挥官了解多少?对方的情报收集能力如何?他们对我们的了解又有多少?
Shawn Ryan:所以假设其他国家也具备这种能力,而我们同样具备,那么情形就和现在一模一样:谁的情报更准确,就能更快制定行动方案;对手也在同样地提速。基本上还是我们当前的博弈,只是更快。如果我们率先开发出这种能力,难道就能实现全球主导地位?我是对的吗?
Alexandr Wang:是的。在这方面,时机非常关键。假设我们领先对手一年获得这种能力,就像下棋时对方走一步,我们能走十步——我们就能更快地做出反应,取得非对称优势。但一旦能力持平,又回到基于情报的对抗。
Shawn Ryan:那我们如何阻止对手获得这类情报或部署此类AI系统?
Alexandr Wang:从现实看,我们难以完全阻止他们。既然难以阻止,就要从以下两个层面着手:一是AI如何影响情报;二是“对抗性AI”动态——我们是否能用自己的AI去破坏对方的AI,反之亦然,即AI对AI之战。在这种对抗中,首要比拼的是双方运行的AI副本数量。如果我有10000个AI副本在运行,而你只有100个,我就能轻松压制对手。我可以将其中 5,000 个副本专门用于入侵你的AI系统,寻找并利用你信息架构和数据中心的漏洞;剩下5,000个副本则用于自身的军事规划。
反观对手,如果将全部100个副本用于军事规划,就无法抵御网络攻击;如果全部用于网络防御,也不足以抗衡我5,000个副本的攻势。即便双方差距仅为2倍——我10,000,对手5,000——我仍可调动一半副本攻破对方 AI,让其系统瘫痪或数据中毒,再用另一半副本完成战棋推演。对手若要同时应对网络攻防与军事规划,必然力不从心。
所以这实际上就变成了:就像你今天指挥各战场兵力,部署多兵种力量、实施合围与迂回一样,你也要为你的AI军队,或者更准确地说,是为你的AI资源做同样的部署与规划。关键在于:我有多少AI Agent投入到网络攻击和破坏对手?我又有多少AI Agent专注于自身的军事规划与战棋推演?另一方面,还得决定有多少AI Agent用于无人机,以及有多少用于实现战术级任务的自主执行,以完成具体作战目标。归根结底,这是一场资源的较量——尤其是大规模数据中心的竞争。
Shawn Ryan:所以谁拥有更大的数据中心和更强的算力来运行所有这些AI Agent、又由谁来决定在战术环境中到底要部署多少AI Agent、有多少AI Agent 用于网络安全去攻破对手的AI系统、这是由人类来做出决策还是交给另一层AI自动输出——这是我们面临的问题,是我们的方案和各方案的后果。难道真是一层又一层的AI在执行所有这些仿真吗?
Alexandr Wang:是的,完全正确。你可以再用另一层AI来规划并分配我的AI资源,以针对对手采取合适的策略。那么,哪些关键维度能让你相较对手更具优势?一是如果你的AI在某些方面与众不同——对手难以预测你的决策逻辑,这本身就是一种战略意外;二是对手对你资源规模的认知存在模糊性——如果我能让对手以为我的算力远低于或远高于实际水平,也能在博弈中取得关键优势。
Shawn Ryan:那AI能否检测到自己被黑客入侵?
Alexandr Wang:这是个很好的问题。现在来看,AI大概率可以发现自身被入侵;但未来,你完全可能对系统进行入侵或以某种方式“数据投毒”AI 系统,让这种行为几乎无法追踪——因为你真正攻击的是AI Agent 本身。
攻击方式主要有两种:数据投毒:并非直接入侵AI系统,而是污染所有输入给AI的数据。这样一来,在未来的任一时刻,只要“激活”该AI Agent,就能利用被投毒的数据扭曲它的决策流程,而无需进行任何实时入侵操作。隐蔽入侵:在你尚未收到任何告警前,快速入侵系统并清除所有痕迹——等到人类发现时,一切证据已被销毁。
Shawn Ryan:它会改变决策过程。 但最终的决策者是人类,他们却不会察觉到这一点。
Alexandr Wang:没错。数据投毒就是最大威胁。你能否污染我们用来训练AI的数据,使你的投毒在不被察觉的情况下改变我们AI的行为,并对整个军事行动产生连锁影响?这是第一步。第二步更极端一些:如果你能迅速完成全面攻破,你就可以入侵系统后销毁所有痕迹——在任何告警或通知出现之前,你的AI Agent 已经清除了入侵证据。这种彻底隐蔽也很可怕,但在可预见的短期内,数据投毒更加令人担忧。
Shawn Ryan:那你们要怎么击败数据投毒?如果系统真的被攻破了,而且你们已经知道它被攻破,那么AI就完全失去意义了,对吧?
Alexandr Wang:问题在于,我们仍然要在很多环节依赖AI。
Shawn Ryan:这就必须回到人类的思维了。比如说,假设目标是一艘舰船,你得完全掌握自己过去所有的行动,这样AI才无法预测你的战术,从而无法根据既有模式来应对,然后你就能用一种前所未见的方式去迷惑对手的AI,对吧?
Alexandr Wang:是的。
Shawn Ryan:因此,你必须做出一次彻底的变革,而且无法确定它是否真的有效,以防AI识别出“哎呀,这套路我们之前见过,它马上就要这么干了。”
Alexandr Wang:是的,您说得对,战略突袭很快就成为制胜的关键。第一点是,如何设计一场行动,最大化对抗性AI所无法预见的战略突袭效果?第二点,同样至关重要的是,很多问题最终都会归结为:你在运行多少AI副本,数据中心规模有多大,以及你具备多少工业化能力,能够在集中式和边缘端,在所有战区和各种作战环境中部署和运行这些AI。
Shawn Ryan:学习新技术的速度有多快?举个例子,比如Saronic正在制造自主水面作战平台,Palmer Lucky在做自主潜艇。那么当有新的系统进入战场,比如Saronic的水面无人艇、Epirus的系统,或者Palmer的导弹、潜艇时,AI会如何获取数据集来生成你所说的行动方案、后果评估和发生概率?它在战场上引入新设备后,能多快学会应对?
Alexandr Wang:这是一个非常好的问题。当它第一次遇到一个全新的平台,比如某种从未见过的USV或UUV,它根本无法预测会发生什么:不知道它的航速有多快,不知道它携带什么弹药,不知道它的射程,也不了解其他关键参数。除非他们掌握了非常准确的情报——比如通过黑客手段窃取了这些数据——否则在最初几次交战中,AI确实无法弄清到底发生了什么。这也是“战略突袭”的关键:不断引入敌方的战棋推演技术无法模拟的新型平台。
但过了一段时间后,AI会掌握这些硬件的性能,并能将它们作为模拟参数,运行大规模仿真来评估其对作战计算的影响。最终,你会进行海量模拟,系统会自动得出:这款无人水面舰艇的航程是多少、最高速率是多少、机动性能如何、弹药类型和数量、通信能力,以及它对各种电子战攻击的脆弱点,并将这些都纳入仿真参数。
Shawn Ryan:但最初你不会得到任何建议。
Alexandr Wang:最初你获得的是战略突袭。
Shawn Ryan:所以在武器能力方面的OPSEC依然至关重要,这最终是否总要回归到人类的思维?
Alexandr Wang:是的,我也相信如此。我们经常讨论一个概念——human sovereignty。AI systems会变得越来越强大,但我们必须确保人类保持主权:在政治体系、军队、经济体系和各大产业中,对关键事务拥有真正的控制权。在军事领域尤为重要,绝不会让AI系统拥有单方面发射核武器的能力。最终,信息聚合、模拟、战棋推演和规划都要交给人类来做出正确决策。此外,这些技术也会渗透到外交决策和经济战等领域。
Shawn Ryan:这甚至可以延伸到国家间的关系构建。也就是说,它渗透到一切:政治、同盟、对手、战争、经济,所有方面。
Alexandr Wang:没错,因为归根结底,这项能力就是感知和态势感知。它能遍历大量数据、OSINT及各种情报来源,实时掌握当前状态和整体态势。它可以汇聚所有这些信息,提供全面的行为分析,并赋予你预测能力。它还能让你有效地模拟各种潜在行动及其结果,并给出相应的概率评估。
接下来,你会将这套能力运用于每一个重大决策:军方和政府在做每项重大决策时都应使用它——无论是贸易政策,还是外交关系;同样,也应应用于内部政策,例如医疗保健等。因此,集全域感知与决策规划于一体的能力至关重要。
Shawn Ryan:你是否认为会有这样一个世界:AI变得如此强大,以至于它自身也变得多余,我们又回到十年前、二十年前那个完全依赖人类决策的时代?它会自我超越吗?
Alexandr Wang:我有几点想法。首先,我认为第一阶段会发生的变化,就像我之前说的那样,从“人在回路”转向“人在监督”——目前,人类在经济、战争等各个领域仍然承担大量的纯粹人力工作,而这将是第一波重大自动化浪潮。
接下来,就轮到你的战略决策能力发挥作用——做出长期、中期、短期兼顾的高层判断。随着AI持续不断地进步,它的运转速度将远超人类的跟进能力。首先会在研发领域显现:AI 将比人类更快地开展大量科学研究、新武器系统和新军事平台的开发,而人类只需最后审查并做出最终决定。
因此,这场竞赛会越来越快,AI带来的成果也会层出不穷。最终,人类需要做出的关键决策数量大幅减少,但每一个决定的重要性却千倍放大。
Shawn Ryan:你如何决定与谁合作?毕竟你们是家国际化公司。
Alexandr Wang:我们对合作对象非常挑剔,因为资源有限,构建这些系统和数据集都非常复杂。我们的目标是——如何与各行业的最优秀伙伴合作?比如:排名第一的银行、第一的制药企业、第一的电信运营商、第一的军队等等。
Shawn Ryan:你们让国家X接入你们提供的AI模型——比如用于军事用途——但是他们必须使用美国境内的数据中心,对吗?只要我们控制了为该AI模型提供数据的数据中心,就等于掌握了它的核心,而国家X则必须信任 Scale AI会维护他们的利益。
Alexandr Wang:没错,就像到了一个新的层次。现在很多人,包括我们自己,认为数据中心即使部署在当地也无妨,只要它仍由美国企业拥有并运营,我们就能保持对数据的控制,防范任何突发状况。另外,我们最初会更专注于风险较低的AI应用:帮助这些国家的教育、医疗、审批流程等行业。低风险场景的价值更容易体现。
Shawn Ryan:人工智能将如何应用到我们的政府工作中呢?我记不太清你说的应用运行的具体内容了。我们的政治领域是什么样的呢?其中很大一部分体现的是人们的价值观。以及人们所信仰和坚持的东西。比如说今天的是各个国家可能比以往任何时候都更加两极分化。那么,在这种情况下,你要如何让一个人工智能模型来管理政府呢? 这种情况两极分化,而且存在着众多不同的意识形态。这个国家的一部分人持一种观点,另一部分人则持完全不同的观点。这在人工智能模型上该如何执行呢?
Alexandr Wang:我们有这样一种概念,有点像基因战争、基因统治。你能喜欢同样的东西吗?你能着手用其他方式取代政府中这些效率极低的流程吗?与人工智能相关的功能,这样你就能提高效率并改善成果。
Shawn Ryan:给我举个具体的例子。
Alexandr Wang:我觉得现在有一个超级简单的例子。 退伍军人在退伍军人事务部看医生的平均等待时间大约是22天。这时间太长了。部分原因是涉及大量陈旧的流程和工作方式。而且,大家都知道,总体而言,那个系统已经失灵了。我想我们都会看着它说,这不是一个能正常运转的系统。 那么,你能否利用人工智能来自动完成该流程的某些部分,自动获取所需的任何审批,获取所需的任何信息,从而那22天变成了一两天,诸如此类的情况,我认为这是显而易见的,总体而言对政府效率来说完全是好事。
另外一个,其他类似的大问题就是审批流程。所以如果我想在某个地方建一个新的数据中心,或者即便我只是想对我的家进行改造。你知道的,根据你所在的地区不同,整个正式流程可能真的要花上好几年才能完成。其中一部分原因是,需要获得的审批太多了。还有很多各种各样不同的工作流程和事情需要去完成。要是我们把系统的规则编成代码,然后让一个人工智能agent自动完成审批流程,会怎么样呢? 这样你就能在一天左右的时间内拿到许可证或者被拒绝发放许可证,对吧?然后,把这种情况放大一百万倍,就像他们从DOGE那里发现的一件事是,你知道的,那些档案存放在铁山矿里。确切地说,比如铁矿,或者像所有联邦雇员退休文件的纸质副本之类的。我们能不能利用那种在处理方式上落后了两代的东西,简直就像还在用纸笔一样,然后借助人工智能,从落后两代变为领先两代。比如说,我们能不能尽可能多地将那些流程自动化呢?所以,集成电路可以说是无处不在。在提高现有政府服务和政府流程的效率方面,有很多唾手可得的成果。我觉得我还没遇到过认为情况并非如此的人。所以这只是所有的一级内容。我觉得这只是我在改进政府运作方面所做的所有初级工作。
Shawn Ryan:它最终会取代政治家吗?
Alexandr Wang:这是个好问题,我觉得退一步说,政策、政策制定的速度以及立法的速度,情况确实如此。而且政府在应对这类新技术时的反应速度必须加快。我花了很多时间在华盛顿特区,我们正努力确保作为一个国家我们能制定出合适的人工智能立法和恰当的人工智能监管措施,以确保这一切对我们来说进展顺利。为了完成那件事已经努力多年了。作为一个国家,我们仍未真正找到解决办法。合适的人工智能监管框架究竟是什么样的,这仍是个问题,一切都还没定下来。
Shawn Ryan:你要怎么向那些在华盛顿特区仍然固执己见的老古董描述这些事情呢? 我是说,我们看到有人在镜头前中风,看到有人真的在办公室里奄奄一息。我们上面有些人可能连怎么打开一封该死的电子邮件都搞不明白。然后你在28岁时加入,构建了规模化的人工智能。一直回溯到扎克伯格坐在那里和国会交谈的时候。我并不认同你所做的一切,诸如此类的事情,这都无所谓。但我看着那一切,心想你们这些人一直待在华盛顿特区,可能连怎么打开自己的电子邮件都不知道。 也可以理解为,如果你正在和一位技术天才交谈,而他正试图进一步强调这一点并让你理解。我能和你共度一天,你懂我的意思,也能试着理解这一切。而他们还有五千万件其他的事情要处理,要在科技方面加快数据处理速度。你甚至都不知道该从何参与进来?
Alexandr Wang:我想很多时候,我想说的第一件事是我觉得这就像很多人不理解这一点。比如很多时候,微小的决策实际上最终都是由工作人员做出的,对吧?而且一般来说,作为一名工作人员,无论如何都必须极度自信。这是一份非常混乱的工作,有很多事情在同时发生,他们必须迅速做出决策。另外,我觉得类比挺有帮助的,我是这么认为的。如今在世的每个人都见证了科技进步的速度不断加快、加快、再加快,你很难找到一个不相信人工智能会成为改变世界的技术的人,只是目前还不清楚它究竟会如何改变世界。我觉得在这方面情况就更模糊了,但这将是一项改变世界的技术。不过问题是,政治体制的反应速度就是不够快,而且这会造成很大危害。我们得有能力对这些新技术做出非常迅速的反应。所以,我认为它们会变得越来越明显,比如,随着人工智能和其他技术正在加速发展。很明显,世界将会发生飞速的变化。坦率地说,我认为选民们会提出要求,更快的行动。所以我认为我们的政府已经做好了加速行动的准备。但是就在那时事情发生了。
Shawn Ryan:我们要如何为这一切提供动力呢?这可是个重大的议题。而且每个人似乎都对发展核能心存顾虑。年纪也极其陈旧了。我们大概在30分钟前刚看到这里的灯光闪烁,停电的情况一直都有。刚刚就有一次大停电。全西班牙都停电了。 例如,在美国一直都有停电的情况。我们要如何为所有这些设备供电呢?
Alexandr Wang:我想说你希望看到怎样的情况发生?首先,如果你绘制一张过去20年中国的总发电装机容量与过去20年美国的总发电装机容量对比的图表。中国的图表走势是径直向右上方延伸,正在疯狂地增加发电量。在过去十年里,他们的发电量翻了一番,而美国基本上处于停滞状态。它有一点点增长。这就是目前正在发生的情况。而且我们正在考虑为如今人工智能公司想要建设的数据中心供电的问题。我们需要将能源产能提高近一倍。而且这得非常、非常迅速地实现,几乎可以说是刻不容缓。所以你得相信,我们的图表曲线将从完全平缓变为垂直上升。与此同时,中国正在快速地、非常迅速地发展。他们会加快发展步伐。他们会为其电网增添更多电力,诸如此类。我认为很难想象在不采取激进措施的情况下,美国能源产能增速能够超过中国的现实情景。
Shawn Ryan:那么,我们现在进展到哪一步了呢?如果中国的实力直线上升,而我们却停滞不前,可以说中国已经超越了我们的实力了吗?
Alexandr Wang:他们肯定是有潜力的,因为他们人口更多,工业也发达得多。他们的总发电量肯定比美国多,发电能力更强。我们必须采取果断行动,这样至少才能开始跟上他们向电网输送能源的速度,这是首要之事。第二点,像你所说的,我们的评分体系极其陈旧。这是一个重大的战略风险。美国的能源电网极易受到大规模网络攻击。这些网络攻击的手段有时候简直蠢透了。就好像进入发电厂登录终端那样。有时候人们不会更改默认的用户名和密码,默认的用户名和密码就是“用户名”和“密码”。所以你就可以找到,比如怀俄明州的某个仍保留着用户名和密码的发电站。利用用户名和密码登录,你就可以关停整个发电站。整个地区的电力供应。所以,就像我们的电网,由于它过于陈旧、过于分散,一切都极易受到影响。这在当下就很关键,比如说,要是一个大城市的电网出问题,就会有人丧命。所以现在情况很糟糕。
Shawn Ryan:你在这些圈子里得做些什么呢?你正在建设大型数据中心对吧?当你去华盛顿特区进行游说时,你会说:“嘿,我们需要更多的权力。”而我没这么做。这有什么关联呢?你会见了国家能源主导地位委员会。他们怎么说?
Alexandr Wang:他们完全同意,他们知道我们必须增强实力。然后就到了下一层的细节问题,我们如何加速核能发展呢?如何加速这一长期进程呢?我们之前关停的现有发电设施,哪些可以重新启用呢?就像你经历所有自然而然要做的事情一样,我的意思是,我觉得我们知道该怎么做,那些问题我们自己就能解决。而且如果我们的评级如此陈旧,以至于连那种漏洞都处理不了,这在某种程度上意味着我们随时都可能被淘汰。
Shawn Ryan:我是说,我可能做了一个假设,你们是在建设数据中心吗?
Alexandr Wang:我们自己并不建设用于提供数据的数据中心。我们与那些正在建设全球大型数据中心的公司合作。
Shawn Ryan:所以我也听说有传言称,这些大型数据中心开始自行打造自己的电源了。这有几分可信度呢?
Alexandr Wang:如今很多设计都涉及这样一个问题:你能否制造出一个小型模块化反应堆(SMR),就像小型核反应堆那样的东西?每个数据中心从根本上来说,能不能在数据中心旁边设置一座核反应堆,为该数据中心的运行提供电力呢?我认为这是个好主意。显然我们需要加大对核能的投入,这是必须要做的。显然,我们需要充分利用所有的发电能源。
原视频:Alexandr Wang - CEO, Scale AI | SRS #208
https://www.youtube.com/watch?v=QvfCHPCeoPw&ab_channel=ShawnRyanShow
编译:Britney Lee & Mendy & Sylvia Yuan
请注意,本文编译自文末载明的原始链接,不代表Z Potentials立场。如果您对本文有任何想法或见解,欢迎在评论区留言互动探讨。
Z Potentials将继续提供更多关于人工智能、机器人、全球化等领域的优质内容。我们诚邀对未来充满憧憬的您加入我们的社群,与我们共同分享、学习、成长。