![]()
当AI从“能用”走向“好用”,一个更现实的问题正在浮出水面——谁能真正用得起、用得上更匹配AI需求的高端算力?
在2026年中关村论坛上,这个问题有了一个更具体的答案。论坛以“科技创新与产业创新深度融合”为主线,释放出一个清晰趋势:AI不再只是技术竞赛,而是进入大规模产业应用阶段。算力,也从少数企业的“战略资源”,转向更多组织的“基础配置”。
在此背景下,中科曙光3月26日在中关村论坛现场发布了世界首个无线缆箱式超节点scaleX40,并同步开启全渠道预售。这款产品的意义,并不只在于性能提升,而在于它试图回答一个关键问题——如何让超节点从“少数人的能力”,变成“多数人的标配”。
在此之前,业内超节点方案普遍依赖大规模线缆连接与定制化建设,部署周期较长,对运维能力要求较高,这些都意味着高昂的时间和资金成本,因此在一定程度上限制了超节点在更广泛场景中的应用。
scaleX40的大胆创新首先体现在形态上。通过无线缆架构,将计算与交换节点实现直接对插,减少了光纤与铜缆的使用;同时采用标准19英寸箱式设计,使算力单元能够以独立设备形态部署。这种变化使部署方式从传统工程实施转向模块化组装,安装与扩展过程更加简化。
在关键指标上,scaleX40单节点集成40张GPU,总算力超过28PFLOPS(FP8精度),HBM显存容量超过5TB,访存带宽超过8TB/s。系统可靠性提升至99.99%,在降低复杂度的同时兼顾稳定性与能效表现。
中科曙光高级副总裁李斌表示,scaleX40的核心并不只是提升算力密度,更重要的是通过架构创新,降低超节点的部署和使用门槛,使其能够以更标准化的方式进入更多应用场景。
从当前市场需求来看,AI算力结构正在发生分层变化。根据行业机构预测,全球AI基础设施投入仍将保持较快增长,但新增需求正逐步从超大规模集群,转向企业级和行业应用场景。
scaleX40的规模配置,既具备支持大模型训练和推理的能力,又不会带来过重的投入压力。更关键的是,它不是“只能这样用”。向下,可兼顾32卡,满足中小规模训练、推理和开发测试;向上,它可以通过扩展,组成更大规模集群。
这种“可小可大”的能力,让企业可以根据业务节奏逐步投入,而不是一次性押注。单节点即可支持中等规模AI任务,同时具备标准化扩展能力,可以根据业务需求逐步构建更大规模集群。这种设计使算力部署更贴近企业实际节奏,避免一次性高投入带来的资源压力。
随着AI进入产业化阶段,算力的竞争重点正在发生变化。从单一性能指标,转向“是否易部署、易使用、可持续运行”,高端算力正在从“奢侈配置”,转向“基础能力”。而scaleX40的发布正印证了这一趋势。
scaleX40在设计上强调“可用性”。其标准化结构可直接适配现有数据中心环境,无需额外改造;模块化架构支持灵活扩展,使系统能够随业务需求逐步演进。同时,通过与存储及调度体系的协同,算力资源可以更直接地服务模型训练、推理及智能体应用。
这种“开箱即用”的能力,让高端算力可以更快进入实际业务流程。从部署到上线的周期被压缩,使用复杂度被降低,高端算力开始具备“随取随用”的特征。
本文系观察者网独家稿件,未经授权,不得转载。