有趣的是,AI推理市场发生了一件值得聊聊的事。NVIDIA收购了Groq,当黄仁勋开始解释这笔交易背后的逻辑时,就很清楚:这并非无缘无故。



此前所有关注都集中在一个点上:如何同时通过更多数据,也就是带宽。但事实证明,市场已经分化了:有些用户愿意支付更高的价格,以便获得更快的响应。代币变得更贵,而它们的生成时间开始真正变得有价值。这会改变整个游戏。

因此,Groq正是专注于这一点——低延迟。他们的LPU架构旨在提供确定性、可预测的延迟。当NVIDIA收购Groq时,他们本质上是把自己产品组合里的一块空白补上了。GPU NVIDIA依然是带宽的王者,但要覆盖低延迟这一细分市场,就需要另一种架构。

合并后的首款产品是全新的 Groq 3 LPU 芯片,采用4 нм(4纳米)工艺制造。根据NVIDIA的说法,它在处理大模型时的效率,比其旗舰 Blackwell NVL72 高出35倍。重点不在于绝对速度,而在于要达到这种速度需要多少算力/功率。

从实际角度看,这意味着现在可以针对不同需求提供不同方案:你要的是最大带宽——就用GPU;你需要不惜代价的快速响应——就用Groq。用同一个模型,价格也会因为你想要结果的速度不同而不同。这拓展了推理市场中可优化的边界。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论