开云(中国大陆官方网站)Kaiyun科技股份有限公司 - 领先的GPU计算与AI算力解决方案

关闭菜单
027-83317177
当前位置: 首页 > 新闻资讯 > 行业新闻

SuperX发布旗舰AI服务器算力和容量提升50%

2025-10-10 11:01:43 小编

  

SuperX发布旗舰AI服务器算力和容量提升50%

  人工智能基础设施供应商SuperX(NASDAQ:SUPX)日前推出最新旗舰产品XN9160-B300 AI服务器。该服务器搭载NVIDIA Blackwell GPU(B300),旨在满足AI训练、机器学习(ML)和高性能计算(HPC)等工作负载对可扩展、高性能计算日益增长的需求,能够为关键任务型数据中心环境提供有力支持。

  据介绍,XN9160-B300 AI服务器专为加速大规模分布式AI训练和AI推理工作负载而打造,其核心是搭载8颗NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模组。Blackwell B300 GPU是NVIDIA基于Blackwell Ultra架构开发的新一代AI加速芯片,与Blackwell相比,Blackwell Ultra每块芯片的NVFP4计算能力提升了50%,同时HBM容量也增加了50%,从而能够在不影响效率的情况下实现更大的模型和更快的吞吐量。因此,该服务器可适用于构建和运营万亿参数基础模型,能够执行百亿亿次(Exascale)级科学计算。

  针对GPU密集型任务,该服务器也进行了优化,在基础模型训练与推理,包括强化学习(RL)、蒸馏技术和多模态AI模型等领域表现出色,同时也能为气候建模、药物发现、地震分析和保险风险建模等HPC工作负载提供高性能。同时,该服务器在显存容量方面也实现了重大突破,提供了2304GB的统一HBM3E显存(每颗GPU 288GB)。高容量的显存池对于消除内存卸载、支持更大模型的驻留、以及管理高并发、长上下文的生成式AI和大型语言模型所需的海量键/值缓存至关重要。

  对于当前动辄需要数千亿甚至万亿参数的基础模型,单机服务器性能再强,若无法高效扩展,也难以应对真正的AI工厂级任务。为此,XN9160-B300 AI服务器通过8个用于InfiniBand的800Gb/s OSFP端口或双400Gb/s以太网,能够便捷实现系统扩展。而通过第五代NVLink互连技术进一步确保了板载的8颗GPU无缝通信,能够满足超大规模模型训练和分布式推理的需求。

  以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备240019号。

联系专业的商务顾问,制定方案,专业设计,一对一咨询及其报价详情
服务热线服务热线 027-83317177
咨询kaiyun全站解决方案 马上咨询
免费获取技术咨询服务
姓名图标
电话图标
QQ图标

联系我们 contact us
027-83317177