当地时间6月12日消息,在圣何塞举办的“ AI 2025”年度峰会上,AMD首席执行官苏姿丰(Lisa Su)公布了公司的全栈AI解决方案,把AI算力竞赛推向了新的高度。会上,她与首席执行官山姆・奥特曼(Sam )共同宣布,将采用AMD的和MI400系列芯片,以支持其大模型的训练和推理工作。
01.新产品矩阵展示高性能
AMD推出了 MI350系列,基于3纳米CDNA 4架构,集成1850亿晶体管,搭载288GB HBM3E内存(带宽8TB/s),首次支持FP4/FP6低精度计算,单卡即可运行5200亿参数大模型。
MI350系列的核心是CDNA 4架构,采用了模块化小芯片与3D封装技术:利用8个台积电N3P制程XCD计算模块与2个N6制程IOD模块进行3D混合键合封装,集群间通过5.5TB/s 高速互联,单模块CU计算单元达256个,内存读取带宽每瓦性能较上一代提升30%。该架构特别增强了矩阵引擎,专为架构设计,FP4/FP6低精度计算能效比提升50%,适配大语言模型轻量化部署需求。
性能方面,液冷版较上一代推理性能提升了35 倍,FP6算力达,较英伟达B200提升2.2 倍;在Llama 3.1 405B模型测试中,内容生成速度是的2.9倍,且每美元 Token产出量比B200高40%。该系列针对不同场景优化了设计:专注风冷(功耗 1000W),追求液冷极致性能(功耗 1400W),并支持8卡集群扩展至2.3TB HBM3E内存,FP16算力达 40.。
甲骨文、戴尔、思科等合作伙伴已基于MI350系列开发整机系统,预计从今年第三季度起陆续交付。其中甲骨文计划部署包含超13.1 万颗芯片的大型集群。
02.未来线路图更清晰
AMD预告将于2026年量产的MI400系列。这款下一代产品计划采用432GB HBM4内存(带宽19.6TB/s),FP4算力达,较提升超10倍。它将支持名为 “”的机架级系统,单机架FP4算力预计可达2.。
机架级方案将有望重新定义数据中心的算力密度。该系统集成MI400 GPU、Zen 6架构EPYC CPU和 网卡,单机架可支持128 颗GPU,内存带宽高达1.4PB/s,较传统架构节省95% 能耗。
03.软硬兼施,试图打破英伟达生态壁垒
为打破英伟达CUDA的生态壁垒,AMD同步发布了ROCm 7软件栈,优化了/兼容性,并新增了自动混合精度训练工具。
在网络方面,AMD推出了 400 NIC网卡,支持 高速互联,旨在与GPU/CPU形成“计算——网络——存储”一体化方案。
04.关于AI的畅想
苏姿丰在峰会上修正并上调了市场预测,认为2028年AI处理器市场规模将远超5000亿美元。她指出,推理芯片赛道的年复合增长率(CAGR)预计将超过80%,成为主要驱动力,原因在于大模型规模化落地催生了强劲的推理需求爆发,以及边缘AI与终端设备对低功耗推理芯片需求的指数级增长。
AMD正通过收购与合作双轨策略加速生态建设。过去一年,该公司收购了25家AI相关公司,并与xAI、等7家头部AI企业达成合作。在能效方面,AMD宣称实现了“30×25”目标,即较2020年节点能效提升 38倍。一套由4颗 GPU和1颗EPYC CPU组成的系统能耗为传统方案的3%。AMD设定了2030年目标:机架级能效再提升20倍,单机架完成当前275个机架的训练任务。
AMD数据中心GPU总经理安德鲁・迪克曼透露,的购置成本较英伟达同类产品低两位数百分比,且功耗更具优势,整体拥有成本(TCO)可节省超30%。尽管当前市占率不足10%,苏姿丰表示:”开放架构+性价比组合,将重塑AI算力市场格局。”
从单卡性能的显著超越到机架级生态系统的构建,AMD正以硬件创新加开源软件的双轨策略,向英伟达的AI芯片发起挑战。随着、Meta等核心巨头的加入与深度合作,这场AI算力战争已从单纯的技术比拼升级为决定未来的生态决战。
05.奥特曼称AI技术跃迁远超预期
首席执行官奥特曼指出,人工智能在过去一年已实现质的飞跃,从实验室的创新概念迅速转变为规模化、实用的生产力工具。与此同时,这波实用化浪潮正对全球算力基础设施构成前所未有的巨大压力。
他强调,AI的应用在过去一年呈现“爆炸式增长”。“模型性能已经足够出色,使得人们能够构建真正伟大的产品——涵盖文本、图像、语音乃至各种复杂的推理能力,”奥特曼特别提到,企业级市场对AI的采用迅猛发展,编程辅助领域就是一个典型例子。“我们反复听到的反馈是,这些工具已经从新奇有趣的事物,变成了个人生活和工作中真正‘有用’的存在。”奥特曼认为,如今用户能够直接指令系统“自主完成工作”的能力,标志着一次革命性的转变。
然而,模型的快速部署及其日益增长的复杂性,正给基础设施带来严峻考验。奥特曼指出,尤其是转向“长链推理模型”(涉及长时间思考、生成更优答案或复杂报告)的趋势,对系统的效率和资源提出了极高要求。“这给模型效率和漫长的推理过程带来了巨大压力。我们需要海量的内存和海量的CPU。”他坦言,过去一年的基础设施扩张规模“极其疯狂”,未来一年的预测也同样惊人。这种由推理场景爆发式增长带来的压力,正在深刻地重塑整个算力生态的技术路径和解决方案。
回顾AI发展历程,奥特曼感慨技术跃迁速度远超预期。“在 2020 年代初,我们几乎还没有真正意义上的现代AI。虽然存在其他一些系统,但那仍属于GPT – 3的早期阶段。”他对比道,“如今,仅仅过去五年(相当于十年的中途),我们从远不及人类的GPT – 3,发展到了GPT – 4.5 级别——这些模型已经能让人感觉足够聪明和有用,提供真实的实用价值体验。”奥特曼举例说,“若在 2020 年预言‘五年内将出现能与你对话、聪明如人、并能实际工作的系统’,这在那时几乎是不可想象的。”
对于技术进步的可持续性,奥特曼承认自己的认知经历了转变。“几年前,对于能否在未来五年维持同样的进步速度,我其实并不确定。我们需要新的研究突破来支撑。”但现在,他对此充满信心:“新研究正在不断解锁新的可能性。”他展望未来,这些系统将在科学发现、复杂社会治理等人类此前难以想象的领域发挥巨大价值,释放难以估量的潜力。
奥特曼的阐述清晰地揭示了AI产业化进程面临的核心现实挑战——即爆炸性增长的推理需求,同时也勾勒出技术变革的宏大前景。当推理需求成为驱动行业的新引擎时,围绕算力生态的竞争与创新必将进入一个更加激烈的爆发期。(文/腾讯科技特约编译 无忌)
323AI导航网发布