NVIDIA将于2024年第一季透过Hopper H200开始采用HBM3e,HBM4预计将于2026年首次亮相

根据TrendForce估计HBM产业似乎已以NVIDIA为中心,其中NVIDIA的AI订单将主导当前和下一代HBM供应。

根据市场研究NVIDIA准备将其HBM订单的相当一部分交给韩国龙头三星,因为两家公司都开始建立对人工智能产业至关重要的业务关系。 早在9月就有消息称,三星的HBM产品已通过多项资质审核,获得了NVIDIA的信任,TrendForce目前透露三星可能会在12月份完成这一流程,明年年初开始陆续有订单流入。
NVIDIA-TensorRT-LLM-Hopper-AI-GPUs.png

除了HBM3之外,下一代HBM3e标准的采用也已步入正轨,因为业内消息人士称,美光、SK Hynix和三星等供应商已经启动了HBM3e的采样过程,据说这将是决定性的一步。 结果可能会在2024年某个时候出现。 回顾一下HBM3e预计将在英伟达的Blackwell AI GPU中首次亮相,据传该GPU将于2024年第二季度推出,而在性能方面它将带来决定性的性能提升每瓦,通过采用小芯片设计。

说到有趣的事情,NVIDIA在2024年为客户制定了很多计划,因为该公司已经发布了H200 Hopper GPU,预计明年将得到大规模采用,随后将推出B100 Blackwell AI GPU,两者都将采用HBM3e内存技术。

除了传统路线外,据传NVIDIA还将针对AI领域推出采用ARM的CPU,这将创造市场多元化,同时加剧竞争。 Intel和AMD预计也将推出各自的AI解决方案,其中值得注意的是下一代AMD Instinct GPU和采用HBM3e内存的Intel Gaudi AI加速器。

最后TrendForce给出了我们对HBM4的预期,特别是即将推出的内存标准将在板载芯片配置方面进行全面改造HBM4有望标志着下一代运算能力的转变,也可能成为人工智能产业未来突破的关键。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论