在当今快速发展的科技时代,人工智能的浪潮正深刻地改变着世界的面貌。本文将带您走进一场极具前瞻性的对话,揭示人工智能背后的资本逻辑与技术演进。
本月初,在CitadelSecurities举办的「FutureofGlobalMarkets2025」活动现场,红杉美国合伙人KonstantineBuhler与NVIDIA创始人黄仁勋展开了一场同台对谈。
黄仁勋回忆起1993年那笔来自红杉的早期投资:100万美元、几乎为零的成功概率,以及一个要“同时发明技术与市场”的想法。三十年后,这笔投资成长为超过1万亿美元的市值,回报高达100万倍。
Buhler将这段历程总结为技术复利与资本复利叠加的奇迹,而他将这次对谈的重点分成三个方向:
1)过去,是从PC到GPU的“加速计算革命”;
2)现在,是从GPU到AI工厂的“系统革命”;
3)未来,则是Agentic与PhysicalAI的“智能革命”。
从0%概率到第一性原理的信念
1993年,黄仁勋30岁。那一年,硅谷的所有投资几乎都围绕通用处理器和摩尔定律展开,集成微处理器被视为计算革命的核心。英特尔正以指数级速度压缩晶体管尺寸,几乎所有资金都流向这条看似无可替代的路径。黄仁勋选择逆向思考:如果通用处理器注定要遇到物理极限,那么新的计算方式一定会出现。
他和团队观察到一个核心矛盾——CPU的优点在于通用性,但也正因通用,它对极难问题的效率始终有限。于是他们设想:是否可以用“加速器”的方式,为特定领域设计出更高效的计算架构?这种领域专用的算力能够与通用CPU并行存在,形成一种“补全型”的计算体系。这便是NVIDIA最初的理论起点——加速计算(AcceleratedComputing)。
当时的业界环境几乎没有人相信这种模式能成立。黄仁勋回忆,红杉资本的DonValentine在听完融资故事后问他:“你要做的杀手级应用是什么?”他脱口而出“ElectronicArts”,却没想到对方刚好是EA的投资人。Don回答说:“他们CTO14岁,还得家长接送上班。你确定这就是你的killerapp?”那时的共识是:“要同时发明技术和市场,成功概率约为0%。”
NVIDIA的突破,恰恰来自这种“0%概率”的赌注。黄仁勋决定自己去创造市场。为了让加速计算有现实需求,他们选择3D图形作为落地场景——一方面它具备真实世界的物理复杂度,另一方面又有足够强的视觉反馈能推动硬件升级。从本质上,3D图形的计算任务就是“模拟现实”,而这背后是一套关于线性代数、光线追踪与动力学的数学体系。黄仁勋意识到,如果能把这套数学在硬件层面加速实现,就不只是做图形,而是开启一条新的计算路径。
公司因此诞生在一个“双重虚空”中——没有市场,也没有前例。NVIDIA必须在自建生态的同时培养开发者,让“图形加速”从垂直场景变成通用语言。黄仁勋形容那是一次同时“发明技术、发明市场、发明路径”的过程。“我们要做的不只是一个芯片,而是一种新的计算范式。”
他始终坚持从第一性原理推演未来:当一种技术今天运转得极好时,应当回头问,它的基础假设是什么,这些假设是否会改变?这种思维让NVIDIA在看似被主流占满的赛道中,看到了拐角后的另一种逻辑。
1990年代末,NVIDIA终于等来了一个信号——3D图形游戏成为消费级现象。ElectronicArts、暴雪、索尼等厂商推动了GPU市场爆发,而NVIDIA在图形芯片上建立的优势,逐渐积累成庞大的软件生态与开发工具链。黄仁勋把这看作公司第一阶段的闭环:从硬件创新者变成生态平台创造者。
他认为,“能成为通用计算平台的,不只是性能最强的芯片,更是能持续吸引开发者的系统。”
正是这种理念,为后来CUDA的诞生埋下伏笔——那是一场真正意义上的“计算解封”,让GPU从图形设备变成面向所有科学与AI研究者的通用加速平台。
从显卡到“通用计算引擎”
CUDA的诞生,是NVIDIA从硬件公司跃迁为计算平台的关键时刻。最初,GPU被视为游戏和视觉领域的专用芯片,属于一条狭窄而激烈的赛道。黄仁勋回忆:“我们当时不仅要造一项全新的技术,还得同时让一个不存在的市场被创造出来。”换句话说,他们必须让一项“不通用”的技术具备通用性。
在2000年前后,GPU市场一度涌现出上百家竞争者。多数公司停留在显卡性能迭代上,而NVIDIA选择把“图形运算”中的并行能力,推广到更广的计算问题上。他指出,3D图形的数学本质是“物理模拟”与“线性代数”,这些结构恰好是许多科研和工程问题的共性。如果能让GPU支持通用矩阵运算,那么几乎所有需要高并行计算的任务都可以被加速。
这便是CUDA的思想起点——让GPU成为通用计算引擎。CUDA不仅是一套软件工具,更是一种标准语言,它让GPU能被科学家、工程师和开发者像调用CPU一样调用。此举彻底改变了NVIDIA的定位:从芯片设计公司变成计算平台的提供者。黄仁勋称其为“第二次发明”——发明的不只是硬件,而是整套市场扩散机制与开发者生态。
为了让生态真正运转,NVIDIA推出了一项名为“CUDAEverywhere”的计划。黄仁勋亲自走访全球大学与研究机构,从地震分析、分子动力学到量子化学,把CUDA植入科研体系。“我们不只是去卖GPU,而是去启发人们用新的方式思考计算。”这种自下而上的传播,让CUDA成为高性能计算的通用语言。
真正的爆发点出现在2012年。那一年,深度学习在学术界迎来转折,AlexNet在ImageNet竞赛上以压倒性优势获胜,而整个模型正是在NVIDIAGPU上训练完成的。黄仁勋当时正试图解决计算机视觉问题,对传统算法的脆弱和复杂感到挫败。与此同时,GeoffreyHinton、AndrewNg、YannLeCun等研究者也在用CUDA加速神经网络。几位研究者之间的“偶遇”,成了这场革命的催化剂。
NVIDIA团队很快意识到,深度学习的计算需求和图形计算极为相似——都是大规模矩阵乘法。于是他们为神经网络专门开发了CUDADNN(CUDNN)库,使模型训练速度成倍提升。黄仁勋回忆:“我们和他们看到的是同一个结果,但我们想的是,如果深度学习能在视觉上奏效,那它还能在哪些领域奏效?”
这次反向推理成为NVIDIA的长期转折点。团队得出一个关键结论:深度神经网络是“通用函数逼近器”,能学习任意复杂函数。无论是卷积、循环网络,还是后来加入状态机的Transformer,本质上都在扩展这种“可学习的函数空间”。于是公司开始以此为前提重新设计整个计算栈——从芯片到系统,从软件到算法。
“当我们意识到这项技术能学习任何函数,我们就明白,计算的每一层都可以被重新定义。”黄仁勋说。
这一决定让NVIDIA走出硬件公司的边界,也奠定了它在AI革命中的核心位置。接下来的十年,CUDA不再是图形接口,而成为新一代智能计算平台的语言底座。
AI工厂:从数据中心到生产体系的重构
2016年,黄仁勋发布了世界上第一台专为AI设计的计算机——DGX-1。那是一个完全不同于传统服务器的机器,内部整合了GPU、CPU、网络与软件栈,构成一个可直接进行模型训练的封闭系统。他在GTC大会上展示这台电脑时,台下反应寡淡——没人理解这是什么。直到会后,ElonMusk对他说:“我可以用一台。”那时的OpenAI还只是一个非营利组织,而黄仁勋笑称自己是“DoorDash的电脑外卖员”,亲手把DGX-1送去旧金山。
这段插曲成了日后产业转折的象征。那台电脑后来成为所有OpenAI模型的起点,也定义了“AI工厂”这一概念。黄仁勋解释,DGX-1定价30万美元,是当时全球最贵的计算节点。“它最初并不成功,所以我得出的结论是——我们做得还不够大。”下一代产品在规模和集成度上全面提升,很快成为业界标配。
在他看来,AI工厂的核心不是芯片性能,而是系统整合。NVIDIA不再只是设计单颗GPU,而是从建筑供电到机架布线,从交换机、网络协议到软件栈,提供一整套可落地的“算力生产线”。“我们是世界上唯一一家能在给定电力和空楼的情况下,交付完整计算基础设施的公司。”这种纵向一体化让创新速度成倍提升:所有硬件与软件保持兼容,每年迭代一次,性能提升近10倍。
他强调,兼容性带来的不是惯性,而是速度。正如Windows生态曾推动PC快速演化,统一的软件标准让GPU系列得以以系统化方式升级。“我们每年都在重写下一代工厂,而这些工厂彼此软件兼容,这种结构性优势就是创新速度。”
AI工厂与传统数据中心的区别在于,它不是存储和检索信息,而是“生成智能”。黄仁勋说,“数据中心是被动的,AI工厂是主动的。”在相同功率条件下,NVIDIA的系统能以三倍能效完成推理任务,这意味着客户在同样的1GW能源里,可以生成三倍的智能内容、获得三倍的收入。AI工厂的计算吞吐率直接决定产出能力,因此他称其为“生产设施”而非“数据仓库”。
他进一步指出,NVIDIA的快速增长并非泡沫,而是来自真实需求的累积。2000年的互联网公司大多没有盈利,而今天的AI已经深入支撑全球超级平台的核心业务:搜索、推荐、广告、短视频,乃至量化交易。Google、Meta、Amazon每年数千亿美元的营收都在依赖AI运行,即使没有OpenAI或Anthropic,这个产业也已存在巨量需求。
同时,新的“AI制造业”正在出现——大型模型公司如OpenAI、xAI、Gemini、Claude正成为“模型制造商”,建设自有的AI工厂,为下游企业提供模型和算力服务。这些模型的用途不再局限于生成文本,而是将进入一个更大的市场——劳动。
黄仁勋称之为“AgenticAI”,即数字劳动力。企业的员工队伍将首次同时包含人类与数字员工,后者通过模型执行代码编写、营销、设计、财务等任务。“我们公司内部100%的工程师都在使用Cursor等工具,它们成为每位员工的第二个大脑。”他认为,这一产业的潜在市场规模超过100万亿美元。
与之并行的是“PhysicalAI”——把智能嵌入物理世界。自动驾驶是数字司机,未来还会有数字工人、数字机械手、数字助理。所有“能动的事物”都可能成为AI的新身体。“这两个市场,一个对应数字劳动力,一个对应物理劳动力,加起来几乎覆盖了人类经济的全部。”
在这一逻辑下,NVIDIA的产品定义彻底改变:GPU不再是硬件组件,而是构建智能工厂的最小生产单元。黄仁勋把这种转变概括为一句话——“我们正在制造制造智能的机器。”
Agentic与PhysicalAI:通用智能的“双重具身”
当生成式模型从内容到行动跃迁,AI的边界被重新划定。黄仁勋指出,AI工厂不仅在云端生成语言与图像,它们生产的是“可被调用的智能”,并将以两种形态落地——数字劳动力(AgenticAI)与具身智能(PhysicalAI)。这意味着,AI第一次在认知和物理两个维度同时进入社会分工体系。
在企业端,AgenticAI的应用已经开始普及。过去,AI是人类的“工具”,今天它变成了“数字同事”。软件开发、营销策划、法务审阅、客户支持都在被数字代理部分接管。黄仁勋透露,NVIDIA内部已经实现“全员AI协作”:所有芯片设计师和软件工程师都由Cursor等智能体辅助完成任务。“AI不再只是加速人类工作,而是与人类共同产出。”
他进一步推演了未来企业的形态——人类与数字员工共存,AI将拥有岗位、层级与培训体系。每个组织都需要学习如何“入职”一名AI员工:通过微调与知识注入,让它理解公司的文化、流程与语料。这在他看来,是CIO的下一代任务:“未来IT部门将成为数字员工的HR部门。”
与之对应的另一条路径是PhysicalAI。黄仁勋称其为“具身智能”的产业革命。自动驾驶是最典型的例子——数字司机替代人类操作方向盘,而类似逻辑正从车扩展到机械臂、物流机器人、服务机器人等一切能被物理控制的对象。“如果AI可以生成一段视频中人类开瓶、喝水的动作,那同样可以驱动一个机械体完成这件事。”
这一推理背后是对“具身学习”的系统性设计。要让机器人具备通用智能,需要三个层次的计算体系:训练它的AI工厂、让它试验的虚拟世界,以及支撑它运行的大脑计算机。NVIDIA在这三层都提供产品——用于模型训练的GPU集群,用于仿真的Omniverse平台,以及嵌入机器人本体的实时计算芯片。
他将这一过程比作“虚拟世界的孵化”:AI首先在仿真环境中以游戏角色的方式学习数万次,掌握物理法则和感知—反馈循环,再跨入真实世界执行任务。“虚拟训练的世界和现实之间的差距越来越小,机器人可以在模拟中成长,然后直接进入工厂或街道。”
Omniverse在这里扮演着关键角色。它是一个可精确复现物理世界的3D数字空间,机器人在其中学会抓取、移动、避障等动作。黄仁勋认为,“Omniverse是PhysicalAI的实验室,是未来机器人文明的操作系统。”
当被问及行业节奏时,他指出,RoboTaxi已经是现实,而通用型机器人正在迅速接近可用门槛。自动驾驶与人形机器人在架构上高度相似:都是多模态、可泛化、端到端的智能系统,只是具身方式不同。“我能开车,也能操作刀叉,本质上是同一个智能在不同身体里的体现。”
他总结说,未来的智能系统将具备“三重通用性”:多模态(感知多维输入)、多具身(可嵌入多种物理形态)、多领域(适应多类任务)。AI不再是一种软件,而是一种可以在不同身体间迁移的“能力单位”。
在这种逻辑下,物理世界被重新定义为智能的延伸空间。每一个可被控制的对象——汽车、机械臂、无人机、外骨骼——都可能成为计算的一部分。黄仁勋认为,这是继互联网和移动计算之后最深刻的基础设施变革:“我们终于能制造出能自己制造智能的机器。”
主权AI与生成式计算:世界秩序的重写
在谈及未来十年的地缘技术格局时,黄仁勋把“主权AI(SovereignAI)”视作新一轮国家竞争的核心主题。他强调,“没有任何一个国家可以把全部数据交出去,再从外部‘进口智能’。”数据是国家的知识与经验,一旦依赖外部模型生成判断,主权层面的决策能力就会被削弱。因此,每个国家都必须掌握属于自己的AI生产力。
他认为,未来的国家AI战略将是“进口+自建”的混合模式:核心模型可以采购,但底层训练与本地知识体系必须自有。NVIDIA已经在全球观察到这一趋势——英国、法国、德国、西班牙、意大利、日本、韩国等国家都在建设本地模型公司,从Mistral、Nebius到N-Scale,形成了遍布全球的主权AI网络。技术门槛的快速降低,使得这种“国民智能体”的构建变得现实。
当被问及中美关系与出口管制时,黄仁勋选择了审慎的表达。他指出,美国希望在AI竞赛中保持领先,但“要警惕让赢得比赛的逻辑变成输掉市场的逻辑”。目前NVIDIA在中国市场的份额从95%下降至0%,他直言:“我无法想象这对任何一方都是好主意。”在他看来,限制政策不仅削弱了美国的出口能力,也阻断了世界最庞大的开发者群体与美国技术的连接。
他提出一种更为平衡的策略:赢得开发者,而不是封锁开发者。“AI的胜负关键不在芯片,而在谁的技术栈成为全球标准。我们希望世界建立在美国技术之上。”中国拥有全球约一半的AI研究人员,若他们无法使用美国体系构建模型,长期看反而会促成新的技术分裂。黄仁勋强调,应当以“细腻的策略”在安全与开放之间取得动态平衡。
话题转向安全与生成。黄仁勋认为,未来的AI安全将类似网络安全——不是依赖单一防线,而是通过数以百万计的“安全AI”形成协作网络。“当智能的边际成本趋近于零,安全智能的成本也会趋近于零。”每个大型模型都会被一群专门监控、修正、过滤的安全模型包围,企业内部外部的系统都将拥有自己的“数字卫士”。
这种演化也带来了新的计算范式。他用一个例子解释这种转变:Perplexity是生成式的,而Google是检索式的。前者基于理解与生成实时构建答案,后者依赖事先存储的网页。视频领域的Sora、NanoBanana等产品也遵循相同逻辑——它们不再播放记录,而是直接“生成现实”。黄仁勋说:“以前的计算是去‘读取’,现在的计算是去‘创造’。”
他用一个类比作结:人类的思考过程也是生成式的。每一次对话、每一个判断都在当下被创造,而不是去“检索”记忆库。“你刚刚问的每个问题,我都不是回到办公室找答案,而是即时生成。”这就是未来计算的样子——“100%生成式的世界,每一个像素、每一句话、每一个动作都在实时被创造。”
在这一体系下,AI工厂的作用不再是数据中心,而是人类创造力的底层能源。每一座工厂都在生产智能,所有生成的内容、代码、语言、决策,都是“产出”。黄仁勋估算,目前全球的AI基础设施投资不过数千亿美元,而这一曲线将迅速攀升到每年数万亿美元的规模。
“我们正处在旅程的起点。”他平静地说。
从加速计算到CUDA,从GPU到AI工厂,从agentic到physical,再到主权AI,NVIDIA已经不只是制造硬件的公司,而是构建未来文明“智能能源”的企业。
“未来的计算机,将是诗人、工程师、同事和伙伴。”
方舟配资-个人配资-短期股票配资-股票加杠杆具体步骤提示:文章来自网络,不代表本站观点。