国盛证券认为,伴随AI应用增长推动计算集群由十万卡向百万卡规模迈进,其中GPU与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。
【本文来自持牌证券机构,不代表平台观点,请独立判断和决策】
DeepSeek对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着DS用户数的增长,算力紧缺的现实却不容忽视。事实告诉国盛证券,当用户规模爆发后,推理带来的前端需求将让AI算力的蛋糕越变越大。伴随近期AIAgent等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加AI相关投资,AI应用的需求起量已成为必然趋势。而AI应用起量将带动算力前端需求迅速增长。
国盛证券认为,伴随AI应用增长推动计算集群由十万卡向百万卡规模迈进,其中GPU与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。
以往市场普遍认为计算集群中每块GPU通常配备3个光模块,主要用于横向互联(GPU-GPU)和CPU的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配:
①NVLink:一种点对点连接接口,目前最高可实现8:1甚至更高的GPU对GPU直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU直连数量越多,导致光模块数量激增。
②NVSwitch:基于NVLink的一种硬件交换机,可支持16个甚至更多的GPU之间的高带宽通信,实现“每个GPU到其他所有GPU”之间的直接数据传输,GPU数量越多所需光模块比例越高。
③更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高IOPS存储(如HBM+PCleGen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。
④外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。
从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但GPU-GPU通信是主要瓶颈,传统3倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、IoT设备等),需要更强的前端IO和数据传输带宽,导致光模块需求大增。
从数据流架构来看,传统HPC或AI训练的数据基本在本地高带宽存储和GPU互联之间传输,对光模块需求较低。而AI推理所需的CDN式数据访问(分布式数据存储+云计算源,AI推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。
伴随未来大量AI应用落地,海量的外部数据和AI推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模AI集群的作用将持续扩大。同时AI推理和应用侧对高IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在AI数据中心中的占比可能持续上升。
目前超大规模AI推理如大模型API服务、搜索推荐、AIAgent在推理时需要跨多个GPU访问键值缓存,如xAI采用了十万卡集群用于推理、DeepSeek由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。
AI推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延迟的光模块来存储、计算和外部数据源。国盛证券认为,随着AI推理对数据处理要求越来越高,800G、1.6T光模块将逐步普及。另一方面CPO等低功耗、高带宽方案将成为主流。
正如上述观点,DeepSeek服务器频繁宕机说明一个问题——目前推理侧机房数量不足以支撑其提供如此多的用户访问并提供推理服务,这反映了AI推理端对机房的大量需求。而上一波云计算浪潮带来的IDC建设高峰留下了大量空置或低租金的存量资源,国盛证券认为随着AI端推理侧的需求增加,将会加速老旧数据中心去库存进程,加速机房改造并挺高资源利用率。
长期看好算力板块,重点关注光通信龙头中际旭创、新易盛、天孚通信等。同时关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN方向网宿科技等。
研报来源:国盛证券,宋嘉吉,S0680519010002,通信行业周报:DeepSeek的启示,不容忽视的算力前端需求,2025年02月15日
*免责声明:文章内容仅供参考,不构成投资建议
*风险提示:股市有风险,入市需谨慎