凭仗宣告的片强新品,AMD正式向英伟达的推出AI芯片王者位置建议挑战 。
美东光阴6月13日周二 ,数模AMD举行了新品宣告会 ,英伟运行亿参其中最重磅的达A敌A多达新品当属性用于磨炼大模子的ADM开始进GPU Instinct MI300 。
AMD CEO苏姿丰介绍,片强天生式AI以及狂语言模子(LLM)需要电脑的推出算力以及内存大幅后退。她估量,数模往年,英伟运行亿参数据中间AI 减速器的达A敌A多达市场将抵达300亿美元摆布 ,到2027 年将逾越1500 亿美元,片强复合年削减率逾越 50% 。推出
苏姿丰演示介绍 ,数模AMD的Instinct MI300A号称全天下首款针对于AI以及高功能合计(HPC)的减速处置器(APU)减速器。在13个小芯片中普遍1460亿个晶体管 。
它接管CDNA 3 GPU架谈判24个Zen 4 CPU内核,配置装备部署128GB的HBM3内存。比照前代MI250,MI300的功能后退八倍 ,功能后退五倍 。AMD在宣告会稍早介绍,新的Zen 4c内核比尺度的Zen 4内核密度更高 ,比尺度Zen 4的内核小35%,同时坚持100%的软件兼容性。
AMD推出一款GPU专用的MI300,即MI300X ,该芯片是针对于LLM的优化版,具备192GB的HBM3内存、5.2TB/秒的带宽以及 896GB/秒的Infinity Fabric 带宽 。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。
AMD称,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍 。这象征着,AMD的芯片可能运行比英伟达芯片更大的模子。
Lisa Su介绍,MI300X可能反对于400亿个参数的Hugging Face AI 模子运行 ,并演示了让这个LLM写一首对于旧金山的诗 。这是全天下初次在单个GPU上运行这么大的模子。单个MI300X可能运行一个参数多达800亿的模子 。
LLM需要的GPU更少,给开拓者带来的直接短处便是,可能节约老本