今日(3月17日),在2026年gtc大会上,英伟达正式推出面向智能体ai(agentic ai)长上下文推理场景的bluefield-4 stx模块化存储参考架构。当前主流数据中心虽具备大容量通用存储能力,却普遍缺乏低延迟、高并发的实时响应特性,难以支撑智能体ai在多步骤决策与跨工具调用过程中的连续、流畅交互。随着上下文规模持续扩大,传统存储i/o路径成为显著瓶颈,严重制约ai推理效率,进而导致gpu资源闲置率上升、整体利用率下滑。

STX架构正是为应对这一关键挑战而生——它将存储节点深度嵌入计算近端,并支持横向规模化扩展访问,从而全面提升智能体AI工厂在推理、训练及实时分析等全链路环节的吞吐能力与响应敏捷度。该架构首个机架级部署方案已集成全新英伟达CMX上下文内存存储平台。该平台通过构建高性能上下文缓存层,有效延伸GPU显存边界;相较传统通用存储设备,其Token处理吞吐量最高可提升达5倍。
STX架构构建于英伟达Vera Rubin平台之上,核心搭载专为存储密集型任务优化的BlueField-4处理器(内置Vera CPU及ConnectX-9超高速网卡),并与Spectrum-X以太网交换架构、DOCA开发套件及AI Enterprise软件栈深度融合协同。实测数据显示:该架构能效比传统CPU主导的存储方案高出4倍;在企业级AI数据加载场景下,页面级数据摄取速率(Pages/sec)实现翻倍增长。
英伟达CEO黄仁勋指出:“要跟上智能体AI指数级演进节奏,必须重构底层计算基础设施。新一代AI系统亟需一种原生适配海量上下文管理与持续自主学习需求的存储范式。”
戴尔、HPE、IBM等全球头部服务器与存储厂商,正基于STX架构联合定义下一代AI就绪型基础设施标准。与此同时,甲骨文云(OCI)、Mistral AI等前沿云服务提供商已明确将率先落地该技术;相关生态合作伙伴预计将于今年下半年起,陆续向市场交付基于STX平台的商用AI系统。










