
STX架构为解决这一痛点,让存储节点更靠近计算资源并实现规模化访问,促使智能体AI工厂在推理、训练和分析环节实现更高的吞吐量与响应速度。其首个机架级部署方案集成了全新的英伟达CMX上下文内存存储平台。该平台通过高性能上下文层扩展了GPU内存,与传统通用存储设备相比,其每秒处理的Token数量提升了高达5倍。
STX架构基于英伟达Vera Rubin平台打造,其核心搭载了专为存储优化的BlueField-4处理器(内部集成Vera CPU与ConnectX-9超级网卡),并协同Spectrum-X以太网、DOCA及AI Enterprise软件运行。在实际性能表现上,该架构的能效比传统CPU架构高出4倍,并且在处理企业级AI数据时,数据摄取速度(每秒页面处理量)直接翻倍。
英伟达CEO黄仁勋强调,为重塑计算基础设施以匹配智能体 AI 的进化速度,AI 系统需要全新的存储形态,来处理海量上下文并具备持续学习能力。
戴尔、HPE、IBM等众多顶级存储供应商目前正基于STX联合设计下一代AI基础设施。此外甲骨文云(OCI)、Mistral AI等领先云服务商计划率先采用该技术,相关合作伙伴将于今年下半年正式向市场交付基于STX平台的系统。