如今AI浪潮席卷全球,且将人工智能列为第一战略重点后,AMD在AI的技术创新高地继续保持攻势,并有望改变现存的英伟达一家独大的市场格局。
北京时间6月14日凌晨,AMD在美国旧金山举办的“数据中心和人工智能技术首映式”活动上,正式发布了MI300系列在内的一系列数据中心及人工智能相关技术产品。AMD董事长兼CEO苏姿丰博士(Lisa Su)表示,AI存在大量的市场机会,而最大的机遇来自于数据中心。
MI300X:性能最强生成式AI加速器
此前备受行业关注的神秘芯片MI300揭开面纱。实际上,AMD Instinct MI300系列包括两款产品:MI300X与MI300A。
据苏姿丰介绍,MI300X是目前最先进的生成AI加速器。基于第三代CDNA架构,MI300X支持高达192GB的HBM3内存(英伟达的H100只有80GB),HBM内存带宽也高达5.2TB/s,Infinity Fabric总线带宽也有896GB/s,晶体管数量达到1530亿个。
借助AMD Instinct MI300X的大内存,可以在单个GPU上适配大型语言模型,例如400亿个参数模型Falcon-40B,苏姿丰还在现场利用MI300X演示了内容生成,撰写了一篇关于旧金山的诗歌。
MI300A则是业界首款“CPU+GPU+HBM显存”一体化的数据中心芯片,同时也是全球首款面向高性能和AI工作负载的APU加速器。MI300A采用3D堆叠和Chiplet技术,配备了9个基于5nm制程的计算核心(6个GCD+3个CCD),置于4个基于6nm制程的I/O die之上。晶体管数量达到1460亿个、多于英伟达H100的800亿个。
此外,AMD还推出了由8个MI300X整合在一起的Instinct平台,具有高达1.5TB HBM3内存。
作为目前AMD AI领域最强芯片,MI300X被视为是对标英伟达H100的产品。有分析指出,从性能上MI300X性能显著超越H100,在部分精度上的性能优势高达30%甚至更多。
而对于MI300A,凭借CPU+GPU的能力,产品组合性能更高、同时具有成本优势。AMD在收购赛灵思之后,在加速卡领域的定制化服务大幅领先英伟达,能够协助云厂商在特定算法模块上进行训练,上述因素都将为MI300系列带来竞争优势。
据苏姿丰介绍,MI300A已经向客户送样,MI300X将于今年Q3送样,预计今年Q4上市。
内容搜集整理于网络,不代表本站同意文章中的说法或者描述。文中陈述文字和内容未经本站证实,其全部或者部分内容、文字的真实性、完整性、及时性本站不做任何保证或者承诺,并且本站对内容资料不承担任何法律责任,请读者自行甄别。如因文章内容、版权和其他问题侵犯了您的合法权益请联系邮箱:5 146 761 13 @qq.com 进行删除处理,谢谢合作!