"); //-->
3月10日消息,根据TensorWave最近公布的一项调查数据显示,大量人工智能专业人士正计划从英伟达的AI GPU平台转向采用AMD最新的Instinct MI300X GPU。
TensorWave 联合创始人 Jeff Tatarchuk 近日通过X平台透露,他们进行了一项独立调查,涵盖 82 名工程师和人工智能专业人士,其中约有 50% 的受访者表示他们对 AMD Instinct MI300X GPU 充满信心,因为相比于英伟达的 H100 系列产品,MI300X 不仅拥有更出色的性价比,而且供应充足,避免了遇到货源紧张的问题。Jeff 还提到,TensorWave 公司也将采用 MI300X 人工智能加速器。
显然,这对于 AMD 来说无疑是个好消息。因为以往其 Instinct 系列产品相比英伟达的竞品,不仅性能要低一些,市场认可度也相对较低,这也导致其在AI芯片市场的份额远低于英伟达。但是,AMD去年推出的最新的Instinct MI300X GPU在性能上成功超越了英伟达明星产品H100。
根据资料显示,AMD Instinct MI300X 内部集成了12个5/6nm工艺的小芯片(HMB和I/O为6nm),拥有1530亿个晶体管。在内核设计上,采用了相比MI250X更简单的设计,放弃了 APU 的 24 个Zen4内核和 I/O 芯片,取而代之的是CDNA 3 GPU内核架构,拥有304个计算单元(每个GPU小芯片拥有38个CU),19456个流处理器。在内存带宽方面,MI300X也配备了更大的 192GB HBM3内存(8个HBM3封装,每个堆栈为12 Hi)相比MI250X提高了50%,带来高达5.3TB/s的带宽和896GB/s的Infinity Fabric带宽。相比之下,英伟达即将推出的H200 AI加速器也只有141 GB的容量。
具体来说,与英伟达 H100 相比,MI300X 拥有以下优势:
内存容量高出 2.4 倍
内存带宽高出 1.6 倍
FP8 性能 (TFLOPS) 高出 1.3 倍
FP16 性能 (TFLOPS) 高出 1.3 倍
在 1v1 对比测试中,性能方面可领先 H100 (Llama 2 70B) 最多 20%
在 1v1 对比测试中,性能方面可领先 H100 (FlashAttention 2) 最多 20%
在 8v8 服务器对比测试中,性能方面可领先 H100 (Llama 2 70B) 最多 40%
在 8v8 服务器对比测试中,性能方面可领先 H100 (Bloom 176B) 最多 60%
从参数上来看,AMD Instinct MI300X 在性能上取得了巨大飞跃,相比英伟达目前的主力产品H100拥有一定的优势,再加上英伟达目前仍然存在供应不足以及价格高昂等方面的问题,这也使得AMD有了更多的机会。
AMD CEO苏姿丰在1月30日的电话会议上预测称,2024年AMD的AI芯片营收将达35亿美元,高于先前预测的20亿美元。另外,去年四季度的AI芯片营收也超越此前预测的4亿美元,但她并未披露确切的数字。
不过,需要指出的是,目前英伟达在AI芯片市场占据了超过了90%的市场份额,居于垄断地位,这也使得AMD在与其竞争过程中可能会受到其市场地位的压制。
上个月推出的面向云端大模型的全新推理芯片与英伟达(NVIDIA)竞争的美国人工智能初创公司——Groq的CEO Jonathan Ross近日在接受《华尔街日报》采访时就控诉英伟达阻碍公平竞争。Jonathan Ross表示,曾有其他芯片供应商客户对其透露,如果英伟达问起这件事,他们会否认与Groq谈过话,因为怕遭到报复。
“我们见过的很多人都说,倘若双方见面的消息传到英伟达耳里,他们会打死不认。”“问题在于,你必须提前一年付款给英伟达,但产品交期或许是一年、或许要更久。他们会说,‘哎呀,你跟别人买了,那我猜交货时间可能要晚点了。’” Jonathan Ross说道。
虽然英伟达否认此事,随后AMD前资深副总裁兼图形业务部总经理Scott Herkleman也指控英伟达的商业行为和垄断集团卡特尔(Cartel)行为相似,并称其为“GPU卡特尔”,暗示英伟达在AI芯片市场上的霸主地位或许不是偶然。Herkleman认为,英伟达限制GPU供应,通过让客户害怕使用竞争对手GPU,以维持产业主导地位。
编辑:芯智讯-浪客剑
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。