米乐中国·官方网站-M6官方首站入口

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽-米乐M6官网入口

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽

  2023年发布的Instinct MI300X,可以说是AMD最成功的AI GPU加速卡,甚至称得上AMD历史上最成功的产品之一,用最快的速度拿到了1亿美元收入。

  更重大的意义在于,它在几乎被NVIDIA完全垄断的高端AI芯片市场上,撕开了一道口子,为行业提供了更多选择。

  2024年,AMD再接再厉发布了升级版的Instinct MI325X,主要提升了HBM3E内存,核心规格没变。

  无论性能还是技术特性,新卡都再次取得了长足的进步,完全可以和NVIDIA Blackwell系列掰一掰手腕。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图1)

  MI350系列最核心的变化,就是升级了新一代CDNA 4架构(可能也是最后一代CDNA),同时采用了新的N3P工艺。

  从大的方向上讲,这一代的提升主要有四个方面,首要的自然是更好的AI能力,针对生成式AI和LLM大语言模型增强了数学矩阵模型。

  另外,支持新的混合精度数据格式、增强Infinity Fabric互连总线和高级封装互连、改进能效,也都是重中之重。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图2)

  MI350系列继续采用延续多代的chiplets芯粒设计,仍然分为顶层的XCD(加速器计算模块)、底部的IOD(输入输出模块)和周围的HBM3E内存模块。

  其中,XCD工艺从5nm升级为N3P 3nm级工艺高性能版本,IOD则维持在6nm工艺。

  它采用了非常复杂的多重先进封装技术,不同模块之间使用了2.5D、3D混合键合,整体则用了台积电的CoWoS-S晶圆级封装,使用硅中介层作为主要的连接媒介NVIDIA也在大面积使用它,不过已经开始向更高级的CoWoS-L过渡。

  上代MI300X就使用了1530亿个晶体管,创下新高,mile米乐m6MI350系列进一步增加到1850亿个晶体管。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图3)

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图4)

  XCD模块一共有8个,每个内部分为4组着色器引擎,下辖36组CU计算单元,还有4MB二级缓存,配有一个全局资源调度分配单元。

  整体合计288个CU单元、32MB二级缓存,但是MI350系列每个XCD中屏蔽了4组CU单元,实际开启了256组(1024个矩阵核心),反而少于MI300X/MI325X 304组(另屏蔽16组),而每个单元的二级缓存容量没变。

  HBM3E内存仍然是8颗,每一颗都是12Hi堆叠,和MI325X相同而高于MI300X 8Hi,只是这次开放了全部容量,单颗是完整的36GB而非32GB,因此总计多达288GB。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图5)

  在裸金属、SR-IOV虚拟化应用中,为了实现最大化利用,MI350系列支持对计算资源进行空域分区,最多可以分成8个。

  不同分区可以支持多种使用模式,但不同于前代的NSP1、NSP4,这次改为NSP1(单个分区)、NSP2(双/四/八个分区),看似降级了,AMD解释说NSP4模式的性能提升其实比较有限。

  MI350系列在单分区+NSP1模式下,最高可以支持5200亿参数的AI模型,而在八分区+NSP2模式下,可以支持最多8个700亿参数Llama 3.1模型的并发。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图6)

  MI350系列针对生成式AI、LLM的具体改进,包括矩阵核心的提升和更灵活的量化机制,过于专业就不一一解释了。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图7)

  通过提升每个CU单元每时钟周期的性能,FP16、BF16、FP8、FP6、FP4的单位性能都得到了显著提升。

  正因此如,MI355X在核心数更少的情况下,性能基本追上甚至超过了MI300X,其中矢量FP64、FP32、FP16和矩阵FP32下都基本一致,矩阵FP64下约为一半(单位性能也是一半),矩阵FP16/BF16、FP8、INT8/INT4下的稀疏性性能则几乎翻了一倍,还新增支持了矩阵FP6/FP4稀疏性。

  可以看到,MIX350系列的性能并非全方位飞跃,有些数据格式下甚至更弱了,因为这代更注重支持更多更灵活的数据格式、单位性能的提升(类似提升IPC),以及对于AI训推更关键的矩阵稀疏性能。

  当然更关键的是实际性能,官方宣称MI355X对比MI300X在不同AI大模型中的推理性能普遍提升了3倍甚至更多。

  在AI助手/对话、内容创作、内容摘要、对话式AI等应用中,性能同样全面提升,最高幅度甚至超过4倍。

  除了理论性能,大模型推理性能也处在同一水平,或者领先最多约30%,训练性能BF16/FP8预训练基本同一档次,FP8微调则有10%以上的领先。

  MI350系列支持风冷、机架部署,其中风冷下最多64块并行,液冷时支持2U到5U,最多128块并行,也可以96块。

  AMD声称,AMD致力于在5年内将AI计算平台的能效提升30倍,MI350系列最终做到了38倍!

  下一步,从2024年到2030年,AMD将再次把AI系统的能效提升20倍,届时只需一台机架即可完成如今275台的工作,节省多达95%的能源。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图8)

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图9)

  特别值得一提的是,作为AI加速系统平台的一部分,AMD此前还发布了一款超高性能网卡Pensando 400 AI(代号“Pollara”),首次与EPYC CPU、Instinct GPU一起组成完整的平台方案。

  这是业界第一个符合超刚刚发布的以太网联盟(Ultra Ethernet)规范的网卡,支持PCIe 5.0,带宽达400G(40万兆),完全可编程可定制,可卸载和加速AI处理。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图10)

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图11)

  现在,AMD有了新一代全部基于自家技术和产品的AI加速系统平台级解决方案。

  EPYC CPU处理器、Instinct GPU加速卡、Pensando网卡无缝配合,尤其是网卡可以卸载接手并高效处理CPU、GPU的部分工作,释放平台的最大性能潜力。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图12)

  M350系列方案将从第三季度开始供应客户,可以看到各大OEM、ODM厂商基本都在名单之中了。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图13)

  生态与应用合作伙伴方面,AMD Instinct的朋友圈正在快速扩大,全球十大AI企业中已经有七家用上了Instinct,包括微软、Meta、OpenAI、特斯拉、xAI、甲骨文等。

  还有红帽、Mavell、Cohere、Astera Labs等等,甚至提到了华为,其正在与AMD探讨共同利用AMD平台打造开放的、可扩展的、高性价比的AI基础设施。

AMD发布全新AI加速卡InstinctMI350系列:288GBHBM3E海量内存、1400W功耗野兽(图14)

  最后顺带一提,最新发布的TOP500超级计算机排行榜上,AMD EPYC+Instinct平台支撑了全球最快的两台超算,还在各个国家的不同项目中得到了广泛的部署。

  位居榜首的是位于加州劳伦斯利弗莫尔国家实验室的El Capitan,采用第四代EPYC处理器、MI300A加速器的组合,拥有超过1100万个核心,最大性能达到1.742 EFlops(147.2亿亿次每秒)。

  紧随其后的是田纳西州橡树岭国家实验室的Frontier,第三代EPYC、MI250X的组合,最大性能1.353EFlops(135.3亿亿次每秒)。mile米乐m6

普惠AI,造就美好生活