CPO挺进数据中心:UCIe如何协助实现更聪明的互连
发布日期:
2026-01-20

浏览次数:

随着AI大模型训练与推理工作负载的快速增长,数据中心的算力结构正在发生根本性变化。与传统云计算相比,AI系统呈现出更高的并行度、更强的节点间通信依赖,以及更加陡峭的带宽需求曲线。由此带来的直接结果是,数据中心的性能瓶颈正加速从“计算能力”转移到“互连能力”。

过去十年,数据中心光互连带宽从 100G 演进至 400G,目前主流云厂商已开始规模化部署 800G,并同步规划 1.6T 乃至更高带宽的下一代互连方案。然而,这种倍数级带宽增长本身也正在遭遇严峻挑战。

随着速率持续提升,电互连功耗快速上升,信号完整性和系统调试复杂度显著增加;与此同时,光模块功耗与散热成本不断攀升,直接挤压整机功耗预算并推高长期 TCO(总拥有成本)。
对于以 AI 为核心负载的数据中心而言,这些问题已不再是工程层面的优化细节,而是制约算力规模化扩展的系统性瓶颈。

 

CPO:数据中心互连范式的转变

为突破上述瓶颈,CPO(Co-Packaged Optics,共封装光学)逐渐成为下一代数据中心互连的核心方向。

CPO 通过将光电边界引入芯片封装内部,使光引擎与 ASIC 共封装,将电信号传输距离从传统的米级大幅压缩至毫米级,从系统层面显著降低互连功耗,并提升整体能效。行业普遍认为,在理想条件下,CPO 可带来超过 50% 的系统能效改善。

更重要的是,CPO 不仅是一种封装形态的变化,而是意味着光从“网络外设”演进为“逻辑芯片的 I/O”,成为迈向“光互连 SoC 时代”的关键桥梁。作为下一代光通信的重要方向,CPO 正在推动全球产业链的重新分工,也为中国企业在技术追赶与生态构建中带来关键窗口期。

 

UCIe:CPO商业化落地的核心引擎

在CPO从技术探索迈向商业验证的过程中,真正决定其可行性的,不应该是单一光学或封装技术的突破,而是系统架构是否能够被模块化、标准化并具备持续演进能力。在这一层面上,UCIe与Chiplet或许将成为CPO架构中最关键的基础能力。

从最直观的系统能效角度看,UCIe与Chiplet组合将带来功耗与带宽扩展能力的显著改善。相比传统板级互连,封装内的短距互连降低了SerDes功耗,使CPO在1.6T乃至更高带宽下仍具备相对可控的功耗曲线。这一点直接回应了AI系统中互连能力成为性能瓶颈的现实需求。

 

同时,Chiplet化设计显著降低了系统设计与长期演进的复杂度。通过将计算、交换、光电I/O拆分为不同Chiplet,CPO不再依赖高度定制化的单一大芯片方案。不同功能模块可以独立设计、验证和演进,使系统在面对带宽升级或工艺变化时具备更高的灵活性。

在此基础上,UCIe提供了统一、可扩展的Die-to-Die互连语言。在CPO场景中,光电I/O Chiplet与主ASIC之间需要极高带宽、低时延且低功耗的连接方式。UCIe通过标准化的物理层与协议层设计,使高密度互连不再依赖厂商私有接口,从而降低系统集成门槛,并为多厂商协同提供了现实基础。

更进一步,UCIe与Chiplet为CPO构建了一个更具确定性的产业协作模型。标准化接口使光学、封装、芯片与IP厂商能够在相对清晰的分工边界下协同创新,减少高度定制项目带来的不确定性。这种生态层面的可复制性,是CPO从小规模试点走向更广泛部署的前提条件。

不过也要指出,UCIe与Chiplet并不能消除CPO在可维护性和光学器件可靠性方面的挑战,但它们通过降低系统耦合度和集成风险,使这些问题被限制在可管理的范围内。

尽管UCIe与Chiplet并非CPO发展落地的唯一方向,但在当前阶段展现出更高的商业可行性,让CPO从高度定制、风险集中的技术尝试,转变为可以被评估、被规划、并逐步放量的系统方案。

作为国内少数能够提供成经验证UCIe IP和Chiplet产品的厂商,奎芯科技也建议系统设计方优先考虑成熟的集成方案,这种方式有助于在不同工艺节点和光电 I/O 方案之间保持架构一致性,从而缩短设计周期,降低重复验证成本。对于需要跨多个代际持续演进的数据中心与芯片公司而言,这一优势具备直接而明确的商业意义。