bot.gif
close
正在加载
黄仁勋:英伟达远超摩尔定律 芯片性能10年提升1000倍 比上代产品提升30倍
互联网 · 2025-01-08 10:31
910
摘要
Nvidia CEO 黄仁勋表示,公司 AI 芯片性能的进步速度已经超越了摩尔定律 —— 这个曾经主导计算技术发展数十年的准则 。
币界网报道:

来源:AI范儿

Nvidia CEO 黄仁勋表示,公司 AI 芯片性能的进步速度已经超越了摩尔定律 —— 这个曾经主导计算技术发展数十年的准则。

在拉斯维加斯 CES 大会上对 10,000 名观众发表主题演讲后的第二天早上,黄仁勋在接受采访时说:"我们的系统发展速度远超摩尔定律。"

摩尔定律由 Intel 联合创始人 Gordon Moore 于 1965 年提出,预测芯片上的晶体管数量约每年翻倍,从而使芯片性能翻倍。这一预测在之后的数十年里基本实现,推动了计算能力的快速提升和成本的大幅下降。

虽然近年来摩尔定律的发展势头已经减缓,但黄仁勋表示 Nvidia 的 AI 芯片正以更快的速度发展。公司称其最新数据中心超级芯片在 AI 推理性能上比上一代提升了 30 多倍。

黄仁勋解释说,通过同时在架构、芯片、系统、程序库和算法等各个层面创新,就能突破摩尔定律的限制。

在许多人质疑 AI 发展是否已经停滞的时候,Nvidia CEO 做出了这一大胆宣称。Google、OpenAI 和 Anthropic 等顶尖 AI 实验室都在使用 Nvidia 的 AI 芯片来训练和运行他们的模型,芯片性能的提升很可能带来 AI 能力的进一步突破。

这不是黄仁勋第一次表示 Nvidia 超越摩尔定律。他在 11 月的一期播客中就提到,AI 领域正在经历"超级摩尔定律"式的发展。

他反驳了 AI 进展放缓的说法,并指出目前存在三个 AI 发展定律:预训练 (从海量数据中学习模式)、后训练 (通过人类反馈等方式微调) 和测试时计算 (给予 AI 更多"思考"时间)。

黄仁勋表示,就像摩尔定律通过降低计算成本推动了计算技术的发展,提升 AI 推理性能也将降低其使用成本。

虽然 Nvidia 的 H100 曾是科技公司训练 AI 模型的首选芯片,但随着这些公司转向关注推理阶段,一些人开始质疑 Nvidia 昂贵芯片能否继续保持优势。

目前使用测试时计算的 AI 模型运行成本很高。以 OpenAI 的 o3 模型为例,它在通用智能测试中达到人类水平的表现,但每个任务就要花费近 20 美元,而ChatGPT Plus 订阅费为一个月 20 美元。

在周一的主题演讲中,黄仁勋展示了最新的数据中心超级芯片 GB200 NVL72。这款芯片在 AI 推理性能上比此前最畅销的 H100 提升了 30-40 倍。他表示,这一性能飞跃将降低像 OpenAI o3 这样需要大量推理计算的模型的使用成本。

黄仁勋强调,他们的重点是提升芯片性能,因为从长远来看,更强的性能就意味着更低的价格。

他表示,提升计算能力是解决测试时计算在性能和成本方面问题的直接方案。长期来看,AI 推理模型还能为预训练和后训练阶段提供更好的数据。

在过去一年中,得益于 Nvidia 等硬件公司的计算突破,AI 模型的价格确实大幅下降。尽管 OpenAI 最新推出的推理模型价格不菲,但黄仁勋预计这一降价趋势仍将持续。

他还表示,Nvidia 如今的 AI 芯片性能比 10 年前提升了 1,000 倍,这远超摩尔定律的发展速度,而且这种快速发展的势头还看不到停止的迹象。

相关资讯
孙第二次当选利比里亚总理
互联网 · 2025-01-09 02:51
img