英伟达 CEO 表示其 AI 芯片性能提升速度超过摩尔定律
Nvidia 的 CEO 黄仁勋(Jensen Huang)在接受采访时表示,公司的人工智能(AI)芯片性能提升速度超过了摩尔定律(Moore's Law)的历史速率。摩尔定律是英特尔联合创始人戈登·摩尔(Gordon Moore)在 1965 年提出的,预测计算机芯片上的晶体管数量将每年大致翻倍,从而使得芯片性能翻倍。这一预测在很大程度上得到了验证,并推动了数十年的计算能力和成本的快速进步。
黄仁勋声称,Nvidia 的 AI 芯片正在以自己的加速度前进,公司表示其最新的数据中心超级芯片在运行 AI 推理工作负载时比上一代快 30 倍以上。黄仁勋解释说,Nvidia 能够同时构建架构、芯片、系统、库和算法,这样就可以在整个技术栈中创新,从而实现超越摩尔定律的进步。
这一大胆声明出现在许多人质疑 AI 进展是否停滞不前的时候。领先的 AI 实验室,如谷歌、OpenAI 和 Anthropic,使用 Nvidia 的 AI 芯片来训练和运行他们的 AI 模型,这些芯片的进步可能会进一步推动 AI 模型能力的提升。
黄仁勋还提出了三个活跃的 AI 扩展法则:预训练、后训练和测试时计算。预训练是 AI 模型从大量数据中学习模式的初始训练阶段;后训练使用诸如人类反馈等方法微调 AI 模型的答案;测试时计算则发生在推理阶段,给 AI 模型更多时间在每个问题后“思考”。
黄仁勋认为,摩尔定律在计算历史上非常重要,因为它降低了计算成本。同样的事情也将发生在推理上,随着性能的提升,推理的成本将会降低。
Nvidia 的 H100 芯片是科技公司训练 AI 模型的首选,但现在科技公司更多地关注推理,一些人质疑 Nvidia 昂贵的芯片是否仍能保持领先地位。黄仁勋在周一的主题演讲中展示了 Nvidia 最新的数据中心超级芯片 GB200 NVL72,这款芯片在运行 AI 推理工作负载时比 Nvidia 之前最畅销的芯片 H100 快 30 到 40 倍。黄仁勋表示,这种性能提升意味着像 OpenAI 的 o3 这样的 AI 推理模型将随着时间的推移变得更便宜。
黄仁勋表示,他总体上专注于制造更高性能的芯片,而这些高性能芯片最终会降低价格。他指出,从长远来看,AI 推理模型可以用来为 AI 模型的预训练和后训练创造更好的数据。
过去一年,AI 模型的价格已经大幅下降,部分原因是像 Nvidia 这样的硬件公司的计算突破。黄仁勋表示,他预计这一趋势将随着 AI 推理模型的推出而继续,尽管我们从 OpenAI 看到的最初版本相当昂贵。
更广泛地说,黄仁勋声称他今天的 AI 芯片比 10 年前制造的芯片好 1000 倍,这是一个比摩尔定律设定的标准快得多的速度,黄仁勋表示他没有看到任何停止的迹象。