AI光模块估值:100倍PE合理吗?从PEG、DCF到SOTP,一文算透
每天为你推送精彩资讯
在过去几个月里,围绕AI光模块公司的讨论几乎都指向同一个问题:当一家制造业公司被给到接近甚至超过100倍市盈率的时候,这到底意味着市场在高估未来,还是低估了一种新的产业范式。
如果只是用传统估值语言来回答这个问题,结论往往会陷入简单的二分:要么“泡沫”,要么“成长”。
但真正的问题并不在这里。市场并不是在争论价格,而是在争论一件更底层的事情——这一轮由AI驱动的算力基础设施扩张,究竟是一次周期,还是一次结构性重构。
一、100倍PE的争议,
本质不是估值问题,而是“时代切换”
回看过去二十年的几轮技术浪潮,可以发现一个规律:每当底层基础设施发生跃迁时,估值体系都会出现阶段性失效。
从3G到4G,通信设备公司曾经历过一轮估值抬升;云计算早期,服务器与IDC公司也一度被给予远高于历史中枢的估值水平。
今天的AI算力周期,与其说是延续,不如说是在放大这种现象。
不同之处在于,这一次需求的源头发生了变化。过去由运营商主导的通信投资,具有明确的资本开支周期与监管节奏,而现在驱动需求的是超大规模云厂商,它们的投资决策更加市场化,也更加集中。
围绕这一轮算力扩张,像英伟达这样的上游公司,通过GPU定义了算力的标准形态;而像博通这样的芯片与网络厂商,则在不断推高带宽与互联的技术边界。
在这样的体系中,光模块不再只是通信设备的一部分,而是成为算力网络中不可替代的连接单元。
当一个行业从“配套设备”变成“核心约束”,估值逻辑自然会发生变化。
二、AI光模块的本质:
卖的不是光,而是“算力连接效率”
如果只从产品形态去理解光模块,很容易低估它的价值。真正的关键在于,它解决的是一个物理层面的瓶颈问题——算力之间如何高效连接。
在大规模AI训练集群中,单颗GPU的性能提升只是问题的一部分,更重要的是多颗GPU之间的通信效率。随着模型规模的扩大,节点之间的数据交换成为限制整体性能的核心因素。
这也是为什么在当前架构下,光模块的价值被重新定价。它不再只是“跟随需求增长”,而是直接参与决定算力系统的有效输出。
从建模角度来看,这意味着一个关键变化:光模块的需求函数,不再来自终端流量,而是来自算力资本开支。
换句话说,它的需求并不是“用户使用多少数据”,而是“云厂商决定部署多少算力”。
一旦理解了这一点,就会意识到,传统以通信周期为基础的估值方法,很难直接套用在这个行业上。
三、为什么这一轮估值显著高于历史通信周期
如果把AI光模块与过去的通信设备周期做一个简单对比,可以看到几个关键差异。
首先是需求的集中度。过去运营商投资虽然规模巨大,但决策相对分散且节奏平滑;而当前算力投资高度集中在少数几家云厂商手中,这种集中度带来的结果,是订单的爆发性与确定性同时提升。
其次是技术迭代的节奏。从100G到400G,再到800G,过去的升级路径相对平滑,而在AI驱动下,800G向1.6T的跃迁更像是“代际跳跃”,这使得产业链在某些阶段会出现明显的供需错配。
最后是利润结构的变化。在供给受限的阶段,毛利率往往会被抬高,而这种抬升并不是长期均衡,而是一种阶段性现象。这一点对估值的影响非常关键,因为它会放大利润的波动性。
综合来看,这一轮估值之所以显著高于历史,并不是简单的“市场更乐观”,而是因为“确定性与爆发性叠加”。这种组合,在传统制造业中并不常见。
四、估值模型的错位:
市场在用“未来利润”定价“当前公司”
在这种背景下,估值的核心问题开始发生错位。
首先是时间维度的错配。当前价格所反映的,并不是当期利润,而是未来两到三年的利润预期。这意味着,静态市盈率已经不再是一个有效的判断工具。
其次是结构的错配。大多数光模块公司同时拥有传统通信业务与AI相关业务,如果用一个统一的估值倍数去覆盖整个公司,就会掩盖不同业务之间的差异。
第三是周期的错配。短期的景气高点,很容易被线性外推为长期趋势,而一旦需求节奏发生变化,估值体系就会迅速重构。
这些错配叠加在一起,使得“100倍PE是否合理”这个问题,本身就带有误导性。因为它默认了一个前提:当前利润可以代表公司的价值基准,而在现实中,这个前提已经不成立。
五、三种估值方法的适用边界
在这种环境下,单一模型往往无法给出可靠结论。更有意义的做法,是理解不同模型各自的适用边界。
-
市盈率适用于利润稳定、增长可预期的阶段,它的优势在于简单直观,但在利润快速变化的阶段,很容易产生误判。
-
PEG试图把增长纳入估值框架,但它隐含了一个假设,即增长是相对平滑且可持续的。当增长呈现出阶段性爆发时,这个假设就会被打破。
-
DCF在理论上最为严谨,因为它直接对未来现金流进行折现。但问题在于,当远期现金流占比过高时,任何一个假设的微小变化,都会对结果产生巨大影响。在技术路径尚未完全确定的阶段,这种方法的“精确性”反而可能是一种错觉。
相比之下,SOTP(分部估值)更接近当前行业的实际情况。通过将传统业务与AI业务拆分,可以在一定程度上缓解结构错配的问题。但即便如此,核心变量仍然是对未来需求路径的判断,而不是模型本身。
六、一个真实的估值拆解路径
以行业龙头为例,可以做一个简化的推演。类似中际旭创这样的公司,其业务可以大致分为两部分:一部分是传统通信相关收入,另一部分是AI驱动的高速光模块。
-
对于前者,可以采用相对稳定的估值倍数,因为其增长与盈利能力都较为可预测;
-
而对于后者,则需要基于算力资本开支的路径来进行推演。
如果假设未来三年内,云厂商的算力投资维持高强度增长,那么AI业务的收入与利润可能呈现出较高的复合增速。
在这种情况下,当前看似偏高的市盈率,实际上是在提前反映这一段增长。
但如果将假设稍作调整,例如把资本开支的高峰期缩短,或者考虑技术替代带来的不确定性,那么估值区间就会迅速下移。不同假设之间的差异,往往可以带来数十个百分点的估值变化。
这也说明了一个问题:同一家公司,在不同模型与假设下,结论的差异可以非常大,而这种差异本质上并不来自模型,而是来自对行业的理解。
七、一个反直觉的结论:
高景气阶段,DCF反而最不可靠
在很多人的认知中,DCF是最“科学”的估值方法,但在当前阶段,这种看法需要重新审视。
当行业处于爆发初期时,未来现金流的不确定性非常高,而DCF模型恰恰对远期现金流极为敏感。
一个看似合理的增长假设,只要在后期略有变化,就可能导致估值结果出现大幅偏差。
更重要的是,在高景气阶段,市场往往关注的是“增长能否持续”,而不是“现金流能否精确预测”。在这种情况下,用一个高度依赖远期预测的模型去给出确定性的估值,本身就存在方法论上的问题。
这并不是说DCF没有价值,而是说它更适用于增长路径已经相对清晰的阶段,而不是技术与需求都在快速演变的时期。
八、回到最初的问题:100倍PE合理吗?
如果一定要给出一个判断,那么答案取决于对未来路径的理解。
当算力资本开支能够维持较长时间的高增长,且技术迭代持续推动需求升级时,高估值是可以被消化的,因为利润的增长速度会逐步“追上”估值。
但如果需求的高峰期短于预期,或者技术路线发生变化,使得现有产品的竞争优势被削弱,那么当前的估值就会面临重估。
从这个角度看,高估值本身并不是问题,问题在于支撑估值的那一组假设是否成立。
九、模型之外:真正决定估值的,是对变量关系的理解
所有估值方法,本质上都是对未来的表达方式。它们的差异,并不在于谁更“正确”,而在于各自隐含了怎样的前提。
在AI光模块这个案例中,真正重要的不是选择PE、PEG还是DCF,而是能否看清几个关键变量之间的关系:算力投资如何传导到需求,技术迭代如何影响供给,竞争格局如何决定利润。
当这些变量的关系被理顺之后,模型只是一种表达工具;而在关系尚未明确之前,再精细的模型,也无法给出有意义的结论。
这也是为什么在同一个市场中,有人看到的是泡沫,有人看到的是机会。分歧并不来自价格本身,而是来自对未来结构的不同理解。
十、把估值算清楚:一个可复用的AI光模块估值框架
如果只停留在逻辑层面,“100倍PE是否合理”永远没有答案。只有把关键变量代入模型,才能看到估值真正的边界在哪里。
这里用一个简化但有效的框架,把问题拆成三步:需求 → 收入 → 利润 → 估值反推。不追求精确,而是建立一套可以反复验证的思考路径。
传统建模往往从公司历史收入出发做增长外推,但在AI光模块行业,这样做会直接失真。真正的起点,是上游算力投资。
当前算力体系的核心变量,仍然围绕英伟达展开。可以用一个非常实用的“中观推导链”:
GPU出货 → 服务器数量 → 交换机 → 光模块需求
做一个简化假设(用于估值推演,而非精确预测):
-
单台AI服务器:8颗GPU
-
每台服务器对应光模块数量:约8–16个(取中值12)
-
单个800G光模块价格:约600–800美元(取700美元)
如果某一年AI服务器新增100万台,对应光模块市场规模大致为:
100万 × 12 × 700美元 ≈ 84亿美元
这只是一个粗略测算,但已经足够说明一件事:需求的波动,本质来自算力投资,而不是通信流量。
在收入确定之后,真正影响估值弹性的,是利润率。
这里必须明确一点:AI光模块的毛利率不是稳定变量,而是典型的周期变量。
可以设定三种情景:
-
乐观情景:供给紧张,毛利率 35%
-
中性情景:供需平衡,毛利率 28%
-
保守情景:竞争加剧,毛利率 22%
假设某龙头公司AI业务收入达到100亿元人民币:
-
乐观利润:约35亿毛利 → 净利约25亿
-
中性利润:约28亿毛利 → 净利约20亿
-
保守利润:约22亿毛利 → 净利约15亿
这一步的核心意义在于:同样的收入,利润差异可以达到60%以上。而估值,最终是对利润定价。
现在进入最关键的一步:从“目标回报率”反推合理估值。
假设投资人要求年化回报10%,我们用一个简化的增长模型来理解PE的合理区间。
如果一家公司未来三年利润复合增长为:
-
情景A:80%
-
情景B:50%
-
情景C:30%
那么三年后的利润分别是:
-
80%增长:约5.8倍
-
50%增长:约3.4倍
-
30%增长:约2.2倍
在不考虑估值变化的情况下,如果当前给予100倍PE,对应三年后的“隐含PE”大致为:
-
情景A:100 ÷ 5.8 ≈ 17倍
-
情景B:100 ÷ 3.4 ≈ 29倍
-
情景C:100 ÷ 2.2 ≈ 45倍
这组数字非常关键,它揭示了一个常被忽略的事实:
100倍PE并不是在定价“现在”,而是在定价“三年后的17–45倍PE”。
换句话说,只要增长能够兑现,高估值会被利润“消化”;但一旦增长放缓,估值压力会迅速显现。
以类似中际旭创这样的公司为例,可以做一个结构拆分:
-
传统通信业务:利润10亿,给予20倍PE → 200亿
-
AI光模块业务:利润20亿,给予60倍PE → 1200亿
合计估值:1400亿,对应整体PE约47倍
但如果AI业务利润继续增长,比如达到40亿:
-
AI业务估值:40 × 60 = 2400亿
-
总估值:2600亿
-
表观PE:迅速上升
这说明一个非常重要的问题:表面上的“高PE”,很多时候只是结构变化的结果,而不是整体高估。
把以上三步合在一起,可以得到一个更接近真实世界的判断框架:
-
如果算力投资持续 → 收入增长成立
-
如果供需维持紧张 → 利润率成立
-
如果技术路径稳定 → 增长持续
那么100倍PE是可以被消化的但只要其中任一变量发生变化,例如:
-
云厂Capex下降
-
行业竞争加剧
-
技术路线切换
那么估值体系就需要重算,而且往往是“快速重算”。
很多人以为建模的价值在于“算出一个价格”,但在这个行业里,更重要的是看清楚:价格背后隐含了哪一组假设。
当你能够把PE拆成增长,把增长拆成需求,再把需求拆到算力资本开支的时候,你其实已经完成了从“看估值”到“理解定价”的跃迁。
这也是为什么,同样面对100倍PE,有人看到泡沫,有人看到机会。差异不在于模型,而在于是否看清了变量之间的传导关系。
十一、终极估值框架:DCF不是给答案,而是给“边界”
真正有价值的DCF,从来不是一个点,而是一个区间。
在AI光模块行业,DCF模型的有效性,几乎完全取决于三组变量:
-
收入增长路径(由算力资本开支决定)
-
利润率水平(由供需结构决定)
-
折现率(由技术与竞争不确定性决定)
我们用一个简化但具有代表性的设定来做推演(以行业龙头为参考原型,例如中际旭创):
基准假设:
-
初始自由现金流:20亿元
-
未来5年收入增速:40% / 30% / 25% / 20% / 15%
-
长期稳定增长率:3%
-
折现率(WACC):10%
在这个基准下,可以得到一个“中枢估值”。但真正重要的,不是这个结果本身,而是当变量变化时,结果如何变化。
先只改变增长率,其他变量不动。
我们构造三种情景:
-
高增长:50% → 40% → 30% → 25% → 20%
-
基准增长:40% → 30% → 25% → 20% → 15%
-
低增长:30% → 25% → 20% → 15% → 10%
结论会非常直观:
-
高增长情景:估值可以比基准高出约40%–60%
-
低增长情景:估值可能下降30%–50%
这里可以得到一个关键认知:在AI光模块行业,估值的弹性,首先来自增长,而不是折现率。
在很多模型里,WACC只是一个技术参数,但在这个行业,它实际上承载的是“风险判断”。
我们设定三档:
-
乐观:8%(技术路径清晰,竞争稳定)
-
中性:10%
-
保守:12%(技术不确定性上升)
在相同增长假设下:
-
从10%降到8%,估值提升约20%–30%
-
从10%升到12%,估值下降约20%左右
这说明一个问题:市场一旦对“技术确定性”产生怀疑,估值不会线性调整,而是快速压缩。
很多分析容易忽略利润率,但它决定了增长能否真正转化为现金流。
设定三种情景:
-
高毛利(35%)
-
中性(28%)
-
低毛利(22%)
在相同收入路径下:
-
高毛利 → 估值上移约25%–40%
-
低毛利 → 估值下移约20%–30%
这一步揭示了一个常被忽略的事实:行业竞争一旦加剧,估值的杀伤力往往比增长放缓更直接。
把增长率、折现率、利润率放在一起,可以得到一个三维结果:
-
最乐观组合(高增长 + 高毛利 + 低WACC)→ 估值可能达到当前的1.8–2.0倍
-
最保守组合(低增长 + 低毛利 + 高WACC)→ 估值可能只有当前的40%–50%
也就是说:在同一家公司上,仅仅因为假设不同,估值区间可以拉开3–4倍。
这才是DCF真正的价值所在——它不是给你一个“精确价格”,而是告诉你市场分歧的合理边界。
如果把DCF结果映射回PE,可以得到一个更直观的理解:
-
在“高增长 + 高确定性”情景下→ 当前100倍PE,对应的是未来被快速消化的估值
-
在“增长回落 + 竞争加剧”情景下→ 当前估值可能隐含30%–50%的回撤空间
这意味着:100倍PE本身既不高,也不低,它只是站在不同假设上的一个结果。
为什么这才是建模能力的分水岭
很多人会做DCF,但真正有用的DCF,从来不是那个Excel文件,而是你对变量的理解能力。
-
需求是否持续(算力资本开支)
-
利润是否稳定(供需与竞争)
-
风险是否可控(技术路径)
如果这三件事看不清,那么再复杂的模型,也只是把不确定性包装成确定性。
但如果这三件事看清了,那么即使不用模型,你也大致知道价格应该落在哪个区间。
这也是为什么,在同样的市场里,有人依赖模型做决策,有人通过模型理解市场。两者的差距,不在工具,而在认知。

最后欢迎大家加入我们的河狸估值建模·干货圈,你有任何关于估值建模的问题都可以在群内交流,另外群内也会定期分享实操干货、工具资料包、福利课程、大咖直播、FMI考试等相关信息!
现在加入还可领取
【财务建模一本通】
+
【AI财务建模学习路线图】
+
【100+份财务建模工具资料包】
长按识别二维码
立即进群


↓点击下方名片 关注河狸AI分析建模↓
夜雨聆风