当万卡级 AI 集群还在刷屏时,10 万卡量级的算力巨兽已经提上日程,瞬间点燃了国产算力自主化的讨论热潮。
但这绝非简单的堆硬件工程,10 万张加速卡同时运转,首先要闯过通信延迟关—— 卡与卡之间的数据传输一旦卡顿,再强的算力也会沦为摆设;紧接着是散热生死关,高密度集群的功耗堪比一座小型电站,液冷技术能否扛住压力?
更棘手的是生态适配关:国产加速卡如何兼容主流大模型框架?调度系统如何让 10 万张卡 “步调一致”?
这些难题,才是国产AI集群冲刺10万卡时代的真正拦路虎。当所有人都在追问系统是否跑得动时,在光合组织 2025 人工智能创新大会上,中科曙光把 ScaleX 万卡超集群搬到了大家面前——真机亮相,第一次让国产万卡级 AI 集群从概念变成现实。
.png)
过去,我们一直把目光放在芯片性能上,算力提升仿佛就是“芯片跑得更快”。但在全球范围,这条路已经走到极限。英伟达规划中的 NVL576,被定义为面向 2027 年的“AI 工厂级”算力节点,其核心思路不再只是让 GPU 跑得更快,而是通过超节点架构,让整个系统的算力、互连效率和协同能力一起跃升。
而 ScaleX 万卡超集群告诉我们,国产算力已经不只是“替代”,它在现实中交出了一份系统级答卷。从单机柜超节点、高速互连网络,到存算传深度协同、智能调度,这套系统展示的是——AI 计算正在从“硬件堆叠”走向“工程系统化”。
在这里,我们不得不提一个令人震撼的数字:10万卡。
在大型 AI 或云计算集群中,“卡”通常指 GPU 或 AI 加速器卡。10万卡意味着整个集群里部署 100,000 张高性能加速卡,形成超大规模算力网络。如此规模的系统,不仅能支持万亿参数模型训练,也对时钟同步、网络通信、散热和系统调度提出极高要求——这正是云计算系统的真正工程门槛所在。
当系统规模迈入万卡级,有一个看似简单、却无法回避的问题浮上水面:
在云计算和 AI 集群中,GPU、存储、网络设备高速交换数据,这些动作都依赖统一的时钟节拍。小规模系统里,微小误差可能不明显;但当成千上万张加速卡、数百个交换节点一起工作时,哪怕微秒级的偏差,也可能被成倍放大,直接影响系统效率与稳定性。
这也是为什么 156.25MHz 的差分时钟成为了高速互连和网络系统的常见配置。它存在于网络接口、交换模块、同步链路中,虽然不起眼,却支撑着高带宽、低延迟的通信,就像一颗稳定的心脏。
在云计算与高端算力场景中,差分晶振并非易耗品,而是贯穿系统全生命周期的关键基础。尤其在万卡级AI集群里,高精度、高稳定的时钟器件如同系统的心跳,直接决定了算力能否持续、可靠地释放。
当算力规模迈向万卡、十万卡,甚至被称为“AI 工厂”的新形态时,底层器件的重要性早已超越“是否有源”的参数层面。真正决定系统能跑多久、跑多稳的,往往不是最显眼的计算单元,而是那些在后台持续工作的基础组件。

以 3225 封装、156.25MHz、LVDS 输出为代表的高性能差分晶振,正是这类系统不可或缺的时间基准。它不直接参与计算,却通过稳定、统一的节拍,确保整个系统在高负载下依然步调一致。
从超大规模集群的部署,到每一次精准的时钟跳变,AI 算力正在进入一个更注重工程可靠性与长期运行的阶段。在这个阶段,峰值速度很重要,但稳定而一致的节奏,才是真正支撑算力走得更远的基础。