![]()
出品 | 妙投APP
作者 | 董必政
编辑 | 丁萍
头图 | AI制图
今年科技投资不是没有机会,而是“闭眼买板块”的时代过去了。
随着美联储降息的预期推迟或落空,AI为代表的科技板块的估值不再出现普涨,而将迎来分化。当下,我们更应该关注有基本面支撑、有预期差、还能把业绩兑现出来的细分方向。
而新技术的突破,意味着产生新的市场预期。这次,OpenClaw和“养龙虾”的走红,正在把AI推进到一个新的投资阶段。
表面上看,这只是又一个Agent(智能体)产品爆发;但往深了看,它改写的是AI系统的运行方式。大模型不再只是被动回答问题,而是开始自主拆解任务、多轮调用模型、持续访问工具、长期维护上下文。
这意味着,AI产业的竞争焦点,正在从“谁的模型更强”,转向“谁能以更低成本生成更多有价值的Token”。
换句话说,下一阶段比拼的不只是总算力,而是单位能耗到底能产出多少有效Token,即Tokens per Watt(Token/W)。
这也是妙投判断下一阶段AI投资机会的核心框架。
如果说上一轮AI行情主要围绕“堆GPU”,那么这一轮更值得关注哪些环节能真正提升Token/W,谁就更可能成为新一轮资本定价的中心。
顺着这条主线看,至少有三类资产正在被重估:
一是负责调度和编排的CPU;
二是负责搬运数据的高速互联与CPO;
三是掌握Token收费权的大模型厂商。
一、CPU成为决定效率的指挥官
过去在对话式AI场景里,CPU的重要性并不高。
从流程上看,用户发出请求,CPU负责接收、分发,再把任务交给GPU执行,最后返回结果。
在这个链条里,GPU像厨师,CPU更像传菜员——等炒好端上来就行,CPU的作用只是“打杂”,能用就行。
但Openclaw为代表的Agent改变了这一点。
Agent不是一次性问答,而是一个持续运行的系统。它要拆解任务、调用工具、等待结果、修正路径、再次调用工具,形成多轮循环。
这类工作流的复杂度,远高于传统Chatbot。
问题在于,GPU擅长的是大规模并行计算,不擅长逻辑控制、任务编排、I/O管理和跨工具调度;而这些,恰恰是CPU最擅长的部分。
所以,进入Agent时代后,CPU的角色不再只是“辅助算力”,而更像是整个AI工作流的指挥官。
指挥官(CPU)凭借高效的调度能力,可以减少GPU空转、降低等待时间、压缩系统性损耗,从而提高单位能耗下的Token产出。
这便意味着,CPU的重要性将被重估。
有数据表明,对话式AI场景下,CPU主要负责Token化等边缘计算工作,工作量仅占约5%;代理型AI模式下,CPU承担工具调用、任务编排、实时决策等大量非AI原生计算,消耗量占AI工作流的80-90%。
需求端已经有迹象。
据Creative Strategies预测,数据中心CPU市场规模将从2026年的250亿美元增长至2030年的600亿美元;如果叠加Agent相关需求,规模有望逼近1000亿美元。
ARM CEO Rene Haas也曾表示,随着Agent驱动应用扩张,数据中心单位功耗所需的CPU算力需求可能增长到当前的4倍以上。
更关键的是,CPU还是一个供给弹性没那么大的行业。
和存储有些类似,服务器CPU长期是高度集中的双寡头格局,英特尔与AMD主导市场;一旦AI链条挤占产能、原材料成本上升、交期拉长,CPU的价格就因供需错配进入上行通道。
据日经亚洲3月25日报道,英特尔与AMD已通知客户上调全系列CPU价格,平均涨幅在10%-15%,部分产品涨幅更高;同时,交货周期将从之前的1-2周大幅延长至8-12周,个别情况下甚至将长达6个月。
因此,妙投认为,CPU正在进入新的景气周期,整个赛道将迎来价值重估。参考存储的上涨,资本市场愿意给出更高的溢价。
当然,最大的受益者会是,海外CPU双雄英特尔、AMD。受益于国产替代,海光信息等国内CPU厂商也将迎来发展机遇和价值重估。
二、小龙虾记忆能力“吃光模块”
另一方面,OpenClaw(“小龙虾”)为代表的Agent具备记忆能力,能够让用户感到终于被记住,不用反复“自我介绍”,协作效率大幅提升。
“小龙虾”的记忆能力本质上就是长上下文推理——把"记住"变成"携带在上下文里",把更多历史信息、任务状态和中间结果持续塞进上下文窗口里,让模型在生成下一个Token时,始终带着这些信息一起推理。
上下文越长,记忆雪球越大(KV Cache越大),需要搬运给GPU的数据就越多,单个GPU装不下,就得分给多个GPU计算。
问题也随之升级。在每步计算(每个token生成)中,GPU之间还需同步全部的记忆(KV Cache);否则,每个GPU只看到局部信息,生成的Token是"瞎子摸象",上下文理解支离破碎。
因此,上下文越长,GPU之间要对账的数据越多,需要“搬”的数据爆发式增长。
于是,Agent的“记忆能力”最终会转化成一个物理层问题,即GPU之间的数据互联(主要依赖于光模块)是否足够快、足够省电。
从Token/W的框架看,这一点也尤其关键。
因为在新的AI工作模式里,真正昂贵的未必只是“算”,很多时候更贵的是“搬”,即光模块的传输效率。
传统可插拔光模块的问题在于,电信号需要经过较长PCB走线,损耗和发热都较高;
而CPO(共封装光学)把光引擎直接放到交换芯片或加速芯片附近,显著缩短电互联距离,从而降低功耗、改善热管理、提升整体传输效率。
![]()
(图片来源:AI制作)
在Token/W投资框架下,共封装光学器件(CPO)的价值不再仅是“更高带宽、更低延迟”,而是降低数据搬运的能量代价,用同样的电能跑出更多Token。
正因如此,妙投认为,共封装光学器件(CPO)将进入加速落地的快车道,进入从“1”到“100”的阶段。
集邦咨询预测,共封装光学器件(CPO)渗透率将从2026年约0.5%攀升至2030年约35%。
从市场预测数据来看,据YOLE预测,CPO市场在2024年的规模为4600万美元,预计到2030年将达到81亿美元,期间的年复合增长率高达137%。
落地在产业链上,相对于传统光模块,CPO减少了部分有源器件,如激光器芯片、探测器芯片等,增加了集成多种光器件的光引擎、硅光芯片和薄膜铌酸锂调制器等。
而CPO产业链上游中硅光光引擎和ELS/CW光源需求将迎来爆发,源杰科技、仕佳光子等相关厂商迎来机遇。
三、大模型重掌定价权
这波“养龙虾”的浪潮,让大模型厂商看到了更清晰的商业化路径。
过去市场对大模型商业化的最大质疑在于,模型能力越来越强,但谁来付费、为哪种价值付费、付费能否覆盖成本,这些问题始终没有真正解决。
而OpenClaw等改变了这套叙事。
因为用户买的不再只是一次性问答,而是一个持续工作的数字劳动力。而Token消耗就不再只是“聊天成本”,而变成了企业愿意为效率提升买单的生产成本。
近期多家厂商开始结束免费公测、转向正式商用按量计费,甚至释放涨价信号。
关键的是,市场已经开始接受高质量Token的收费权,而不是“谁涨了多少价”。这比单纯的调用量增长更重要。
例如:2月12日智谱发布GLM-5时上调Coding Plan套餐价格30%起,3月16日发布GLM-5-Turbo时再涨20%,相对GLM-4.7累计涨幅达83%。即便如此,市场依然供不应求,调用量增长400%。
另外,token消耗的想象空间还很大。
GMI Cloud创始人AlexYeh曾表示,“随着开源和闭源的模型越来越好,token的调用量会越来越高。所以我觉得我们甚至连1%或5%都还没有到。”
根据IDC数据,中国企业活跃智能体数量将在2031年突破3.5亿规模,年复合增长率达到135%以上,同时由于智能体任务执行密度的增长和任务复杂度的提升,也将带来智能体Token消耗年均超30倍的指数级跃升。
![]()
妙投认为,大模型厂商持续受益的确定性很高。
与此同时,资本市场对大模型企业商业化的叙事颇为认可,尤其在科技股回调时逆势上涨。今年以来,智谱、MiniMax的股价上涨已达到579%、483%。
这里,不禁有人会问,智谱等大模型的估值高吗?
妙投认为,由于今年大幅度上涨,智谱的估值已经透支了未来的业绩增长。
据华泰证券测算,在乐观情形下,智谱有望于2029年实现营收142亿元,可给予29倍的市销率(PS),对应的市值为4118亿元。
摩根大通将智谱的目标价从800港元上调至950港元,基于30倍2030年预期市盈率。
截至4月1日,智谱的市值已经超过4000亿元,股价最高达到了938港元。也就是说,按照机构的测算,智谱已经透支了2029年甚至2030年的业绩。
当下,大模型厂商估值不具备“性价比”。接下来,投资者还需关注智谱大模型的token量以及业绩能否超出预期。
小结
总体而言,妙投认为,资本市场将更关注AI新技术带来的“蝴蝶效应”,即token激增带来的新的商业模式(如:大模型商业化叙事)以及新的市场需求(CPU、CPO产业链等)。
另外,中东边缘冲突推高通胀预期,美联储降息落空或加息影响整体科技股估值,因而科技股出现“杀估值”,同时也会跌出“性价比”。一旦冲突出现结束信号,资本将重新关注科技股,甚至“抢跑”并押注新的机会。
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4847900.html?f=wyxwapp
声明:包含AI生成内容