登录
首页
快讯
邮件订阅
会员专属
Memo AI
联系我们

英伟达 CEO 表示其 AI 芯片性能提升速度超过摩尔定律

25-01-09
免费
快讯

Nvidia 的 CEO 黄仁勋(Jensen Huang)在接受采访时表示,公司的人工智能(AI)芯片性能提升速度超过了摩尔定律(Moore's Law)的历史速率。摩尔定律是英特尔联合创始人戈登·摩尔(Gordon Moore)在 1965 年提出的,预测计算机芯片上的晶体管数量将每年大致翻倍,从而使得芯片性能翻倍。这一预测在很大程度上得到了验证,并推动了数十年的计算能力和成本的快速进步。

黄仁勋声称,Nvidia 的 AI 芯片正在以自己的加速度前进,公司表示其最新的数据中心超级芯片在运行 AI 推理工作负载时比上一代快 30 倍以上。黄仁勋解释说,Nvidia 能够同时构建架构、芯片、系统、库和算法,这样就可以在整个技术栈中创新,从而实现超越摩尔定律的进步。

这一大胆声明出现在许多人质疑 AI 进展是否停滞不前的时候。领先的 AI 实验室,如谷歌、OpenAI 和 Anthropic,使用 Nvidia 的 AI 芯片来训练和运行他们的 AI 模型,这些芯片的进步可能会进一步推动 AI 模型能力的提升。

黄仁勋还提出了三个活跃的 AI 扩展法则:预训练、后训练和测试时计算。预训练是 AI 模型从大量数据中学习模式的初始训练阶段;后训练使用诸如人类反馈等方法微调 AI 模型的答案;测试时计算则发生在推理阶段,给 AI 模型更多时间在每个问题后“思考”。

黄仁勋认为,摩尔定律在计算历史上非常重要,因为它降低了计算成本。同样的事情也将发生在推理上,随着性能的提升,推理的成本将会降低。

Nvidia 的 H100 芯片是科技公司训练 AI 模型的首选,但现在科技公司更多地关注推理,一些人质疑 Nvidia 昂贵的芯片是否仍能保持领先地位。黄仁勋在周一的主题演讲中展示了 Nvidia 最新的数据中心超级芯片 GB200 NVL72,这款芯片在运行 AI 推理工作负载时比 Nvidia 之前最畅销的芯片 H100 快 30 到 40 倍。黄仁勋表示,这种性能提升意味着像 OpenAI 的 o3 这样的 AI 推理模型将随着时间的推移变得更便宜。

黄仁勋表示,他总体上专注于制造更高性能的芯片,而这些高性能芯片最终会降低价格。他指出,从长远来看,AI 推理模型可以用来为 AI 模型的预训练和后训练创造更好的数据。

过去一年,AI 模型的价格已经大幅下降,部分原因是像 Nvidia 这样的硬件公司的计算突破。黄仁勋表示,他预计这一趋势将随着 AI 推理模型的推出而继续,尽管我们从 OpenAI 看到的最初版本相当昂贵。

更广泛地说,黄仁勋声称他今天的 AI 芯片比 10 年前制造的芯片好 1000 倍,这是一个比摩尔定律设定的标准快得多的速度,黄仁勋表示他没有看到任何停止的迹象。

Memo Newsletter

订阅 Memo 邮件列表,过滤噪音,捕捉最具价值的创投行业信号

最顶尖的 AI 行业创业者和投资人都在看

Subscribe
头像
Memo Team
Signal, not noise!
最新快讯