NVIDIA、AMD、谷歌AI卡实测对比:N卡仍有5倍性价比优势

zhiyongz 阅读: 2025-11-28 21:01:36 评论:0

     快科技11月28日消息,在AI大模型训练/推理上,NVIDIA的显卡无疑是目前使用最多的,AMD、Intel及谷歌等公司份额没法比,问题来了,NVIDIA到底强在哪里?这里不用提什么CUDA生态优势,也不用说AI算子等参数,Artificial Analysis直接对比了当前的三大推理方案的实际表现,分别使用谷歌TPU v6e、AMD MI300X 及NVIDIA H100/B200来对比。测试的内容比较多,不过我们只看一个综合性的就够了,在30Token/s速度下每百万输入输出的成本,跑的模型是Llama 3.3 70B。

NVIDIA、AMD、谷歌AI卡实测对比:N卡仍有5倍性价比优势

    在这方面,H100的成本是1.06美元,H200也只有1.17美元,B200 TensorRT是1.23美元,B200是1.45美元,AMD的MI300X是2.24美元,而谷歌的TPU v6e是5.13美元。对比下来,N卡相对AMD是至少2倍的性价比优势,对比谷歌则是5倍左右的优势,差距非常明显。

    哪怕是用NVIDIA最新最贵的B200显卡,成本提升也不算太明显,毕竟性能是大增的,比AMD及谷歌的依然有很大优势。现在可以说,AMD及谷歌当前的AI卡还是差不少的,但两家下一代产品提升很猛,AMD的MI400X系列最多432GB HBM4显存,谷歌的TPU v7据说也是几倍的性能提升,届时可能改写这个评测结果。当然,NVIDIA也不会坐以待毙,下一代的Rubin显卡也发布了,明年也会陆续上市,有望进一步扩大差距。

NVIDIA、AMD、谷歌AI卡实测对比:N卡仍有5倍性价比优势



本文 三波网 原创,转载保留链接!网址:https://www.bbbr.net/articles/65071.html

可以去百度分享获取分享代码输入这里。
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

发表评论
搜索
排行榜