
![]()
我们正在搭建的,不仅是一个算力平台,更是一个属于智能时代的‘新安卓生态’。
我国AI产业近年来虽发展迅猛,却始终被四大瓶颈制约:高端算力短缺、国产芯片性能差距显著、部署与运营成本高企,以及严重的生态碎片化。尤其是不同厂商的加速卡与软件框架之间互不兼容,导致用户需针对不同技术路线重复投入适配资源,造成巨大浪费。
1. 硬件协同与集约化设计:支持多品牌国产加速卡(如昇腾、寒武纪、海光等)在统一机柜中的高密度部署。单机柜可搭载96张GPU,总算力规模达百P级别,内存带宽突破180TB/s,集群扩展能力提升四倍;
2. 软件生态兼容层:通过兼容CUDA等主流开发环境,大幅降低用户从国际主流平台迁移至国产架构的成本,既保护已有投资,也平滑了过渡路径;
3. 绿色能效突破:全面采用液冷散热技术,将PUE(电能利用效率)控制在1.12以下,相比传统风冷方案节能40%以上;
4. 技术栈开放:首批公开AI存储优化方案、液冷基础设施设计规范、以及DeepAI基础软件栈三项核心技术,实现从部件级到数据集成的全栈开放。
极致性能表现:支持混合精度计算,千卡集群训练万亿参数大模型时,效率达到业界主流水平的2.3倍,整体开发效率提升4倍,人天投入降低70%;
军工级可靠性:通过121项RAS(可靠性、可用性、可维护性)专项设计,系统平均无故障时间提升2.1倍,实现百万级硬件部件的故障秒级检测与隔离;
全场景适配能力:不仅支持超大规模预训练,也适用于行业模型精调、多模态AI开发、AI for Science科研仿真等多元场景;
生态无界兼容:真正做到“硬件可选、软件互通”,用户可灵活组合国内外不同品牌的加速卡与服务器,摆脱绑定与封锁风险。
本次发布不仅是技术突破,更是一次产业组织模式的创新。中科曙光联合二十余家机构共同成立“AI计算开放架构联合实验室”,致力于推进三类协同:
1. 芯片-软件协同优化:针对国产加速卡与国际顶尖产品的性能差距,通过系统级调优提升实际应用效能;
2. 模型-硬件联合设计:面向大模型训练与推理的特殊需求,共同定义下一代算力架构;
3. 接口标准化制定:建立覆盖液冷、存储、网络等组件的统一规范,避免重复开发与资源浪费。
算力门槛大幅降低:中小企业可基于标准化、开放化的组件快速搭建高性能AI集群,算力综合成本下降30%–50%;
打破生态割裂:实现跨品牌、跨技术路线的互操作,真正形成“国产替代”中的合力,而不再陷入内部竞争;
加速行业应用普及:已在制造、农业、科研等领域显现价值。如首钢股份利用开放架构集群实现高精度AI质检,中化农业依托iMAP大模型实现智慧施肥与产量预测。
中科曙光也明确表达了国际化愿景:未来将推动该开放架构成为全球标准之一,参与并主导国际AI算力生态建设。其目标并非简单替代现有体系,而是通过更高程度的开放性与灵活性,与英伟达CUDA等国际主流生态形成差异化互补。
郑重声明:用户在社区发表的所有信息将由本网站记录保存,仅代表作者个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。
请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》