欢迎来到亿配芯城! | 免费注册
你的位置:芯片交易网IC交易网-亿配芯城 > 芯片资讯 > AMD最强AI芯片1530 亿颗晶体管HBM密度是英伟达 H100 的 2.4 倍
AMD最强AI芯片1530 亿颗晶体管HBM密度是英伟达 H100 的 2.4 倍
发布日期:2024-04-22 06:45     点击次数:118

6月15日消息,AMD英伟达的头号竞争对手,终于发布了令人期待已久的AI芯片。2014年,苏姿丰成为AMD CEO时,这家芯片企业正面临生存危机,裁员约1/4,股价徘徊在2美元。但在她的领导下,AMD实现了漂亮的转身,9年来股价飙升近30倍,对英伟达英特尔两家顶级芯片巨头形成了制衡。HBM 密度是英伟达 H100 的 2.4 倍,带宽是英伟达 H100 的 1.6 倍。

AMD最强AI芯片1530 亿颗晶体管 密度是英伟达H100的 2.4 倍.jpg

随着生成式AI技术的快速发展,英伟达GPU成为各家大厂的争相抢购对象,AMD也成为了关注的焦点。AMD宣布了下一代AI芯片MI300X加速器的发布,这是一款纯GPU版本,采用AMD CDNA 3技术,使用多达192 GB的HBM3高带宽内存来加速大型语言模型和生成式AI计算。主要客户将于第三季度开始试用MI300X, 电子元器件PDF资料大全第四季度开始全面生产。

EEPROM带电可擦可编程存储器芯片大全 7,CMOS图像传感器集成电路芯片 59); white-space: normal; background-color: rgb(253, 芯片交易网IC交易网 253, ATMEGA系列ATMEL芯片COM 254);">苏姿丰表示,人工智能是AMD“最大、最具战略意义的长期增长机会”。现场,AMD还宣布与明星AI独角兽企业Hugging Face达成了一项新的合作伙伴关系,为AMD的CPU、GPU和其他AI硬件优化他们的模型。

除了AI芯片外,芯片交易网IC交易网AMD还推出了专为云计算和超大规模用户设计的全新EPYC服务器处理器,代号为Bergamo,每个插槽最多包含128个内核,并针对各种容器化工作负载进行了优化。亚马逊旗下云计算部门AWS、甲骨文云、Meta、微软Azure的高管均来到现场,分享了在其数据中心使用AMD芯片及软件的感受。

MI300X加速器是AMD Instinct MI300系列的新成员,专为大型语言模型和其他先进AI模型而设计。它由12个5nm chiplets封装而成,共有1530亿颗晶体管。这款AI芯片舍弃了APU的24个Zen内核和I/O芯片,采用更多的CDNA 3 GPU和更大的192GB HBM3,提供5.2 TB/s的内存带宽和896GB/s的无限带宽。MI300X的HBM密度是英伟达H100的2.4倍,带宽是其1.6倍,这意味着AMD可以运行比英伟达芯片更大的模型。

AMD演示了在单个MI300X GPU上运行拥有400亿个参数的Falcon-40B大型语言模型,让它写了一首关于旧金山的诗。苏姿丰表示:“模型尺寸变得越来越大,你需要多个GPU来运行最新的大型语言模型。”但随着AMD芯片上内存的增加,开发者将不再需要那么多GPU。

另一款MI300A被苏姿丰称作“面向AI和高性能计算的全球首款APU加速器”,将多个CPU、GPU和高带宽内存封在一起,在13个chiplets上拥有1460亿颗晶体管。MI300A采用5nm和6nm制程、CDNA 3 GPU架构,搭配24个Zen 4核心、128GB HBM3,相比MI250提供了8倍以上的性能和5倍以上的效率。AMD还公布了一种AMD Infinity架构。该架构将8个MI300X加速器连接在一个考虑了AI推理和训练的标准系统中,提供共1.5TB HBM3内存。

这些新产品的发布表明了AMD在AI领域的强劲竞争力,将对英伟达构成重大挑战。 

电子元器件采购平台.jpg