AMD回应NVIDIA的H100 TensorRT-LLM结果,再次显示MI300X GPU使用优化的AI软件堆叠效能提升30%

AMD对NVIDIA的H100 TensorRT-LLM数据做出回应,MI300X在运行优化时再次在AI测试中处于领先地位软件。

两天前NVIDIA发布了其Hopper H100 GPU的新测试以展示他们的芯片性能比AMD展示的要好得多,在推进人工智能期间AMD将其全新的Instinct MI300X GPU 与Hopper H100芯片进行了比较,后者已经推出一年多了,但仍然是人工智能行业最受欢迎的选择。 AMD使用的测试并未使用TensorRT-LLM等优化库,而TensorRT-LLM为NVIDIA的AI芯片提供了巨大的提升。
NVIDIA-Hopper-H100-vs-AMD-Instinct-MI300X-AI-GPU-Performance-Main (1).jpg
使用TensorRT-LLM使Hopper H100 GPU的性能比AMD的Instinct MI300X GPU提高了近50%。 现在AMD正全力反击NVIDIA,展示MI300X如何在Hopper H100 运行其优化的软件堆叠时仍然保持比H100更快的效能。
MI300X-Performance-1.png

  • 在H100上使用TensorRT-LLM,而不是AMD测试中使用的vLLM
  • AMD Instinct MI300X GPU上的FP16数据型别与H100上的FP8数据类型的性能比较
  • 将AMD发布的性能数据从相对延迟数转换为绝对吞吐量

因此AMD决定进行更公平的比较,根据最新数据我们发现在vLLM上运行的Instinct MI300X比在TensorRT-LLM上运行的Hopper H100性能提高了30%。

当然这些来回的数字有些出乎意料,但考虑到人工智能对于AMD、NVIDIA和Intel等公司的重要性,我们可以期待看到更多这样的例子被分享未来。 就连Intel最近也表示整个产业都在积极推动终结NVIDIA CUDA在产业中的主导地位。 目前的事实是英伟达在人工智能领域拥有多年的软件专业知识,虽然Instinct MI300X提供了一些可怕的规格,但它很快就会与更快的Hopper解决方案展开竞争。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论