风险提示:本文内容仅为作者当下观点,不构成任何投资建议,仅供参考。 市场有风险,投资需谨慎。 本文撰写过程中,参考了大量行业公开资料、机构研究报告及产业动态,力求内容客观合理,但不保证信息的绝对准确性与完整性。 |
PART 01
原生大模型(LLM):就是个“只会读写文字、没有记忆、不会动手”的超级读书人,只能吞文字、吐文字,聊完就忘,不会调用工具、不会完成复杂任务,这是AI的“嘴巴”。 AI智能体(Agent):给大模型装上“大脑、手脚、记忆”,解决了大模型“没记忆、不会交互、不会执行”的致命缺陷,让AI能自主规划、动手干活,这是AI的“全身”。 Harness框架:就是Agent的“骨架”,支撑AI完成“规划任务→调用工具→记忆复盘”的完整闭环,是AI能自主干活的核心基础。
控制流:会规划做事步骤,先思考、再行动,出错了能调整;
工具调用:能联网、查数据、跑代码,需要什么就调用什么工具;
记忆系统:有专属“笔记本”,存下所有对话和操作记录,不会失忆。
PART 02
预训练(打地基):用全网海量文本,训练出一个基础大模型,只会补全文字、懂常识,不会对话、不会干活,工程庞大,需要上千张显卡连续训练几个月。 中期训练(练本领):用细分领域数据,补强模型的基础能力,先学会理解指令、掌握领域技能,再做精准校正。 后训练(Agent专属特训,最关键):教AI“什么时候做什么、怎么做、做错了怎么改”,包括怎么调用工具、怎么保持对话连贯,靠的是专家完整任务案例,而非海量泛数据。
PART 03
长程上下文(以代码能力为核心):最成熟、落地最好,能长时间自主运行,代码结果标准清晰,核心依赖更大显存和更优压缩算法。 多模态(图文视频大模型):最受限、瓶颈最大,成本极高,算力消耗是文本的成百上千倍,目前还没跑通大规模商用,只能完成简单操作,大厂项目已陆续放缓。 多智能体(Multi-Agent):未来终极形态,适合企业复杂大任务,目前单智能体还不够稳定,但长期必然是“多个AI分工协作”的模式,无需人工干预。
PART 04
GPU(核心主芯片):下一代架构重点升级“低延迟+大显存”,适配更长上下文和更大模型,是核心刚需。 CPU(严重低估):以前被忽略,现在是GPU集群的控制枢纽,AI训练、推理、微调都离不开,需要超强单核性能和高速带宽,需求增量被普遍低估。 新型异构芯片(LPU/CPX):比GPU精简、比ASIC通用,未来会和GPU搭配封装,是下一代算力增量。 互联与存储:高速交换机、光模块(CPO)是集群互联的核心,英伟达布局的上下文存储机柜(ICMS/CMX),是Agent时代的全新增量,解决长程任务存储瓶颈。
PART 05
Token(AI基础用量):今年已30-50倍增长,未来每年仍保持10-20倍,2-3年整体翻几十倍甚至上百倍,全产业顶级增长赛道。 大模型厂商:30-50倍增长,收入绑定Token用量+模型单价,哪怕单价下降,增长依旧可观。 光设备/光通信:10倍增长,资本开支持续加速,叠加国产替代和价值量提升。 国产芯片、云/算力租赁:5倍增长,算力总量提升+国产渗透率提升,利润率持续抬升。 CPU、光互联:3-4倍增长,CPU与GPU配比提升,光技术价值量大幅增加。 能耗、电源、液冷:1-2倍稳健增长,数据中心功耗上行,配套设施同步放量。 AI原生应用:长期空间极大,但优质公司大多未上市,需耐心等待。
PART 06
夜雨聆风