如果你觉得现在的AI就是“问ChatGPT几个问题”,那你可能还站在这个巨大产业的门卫室。
这条产业链极其庞大,它像一栋三层小楼:
- 一楼是卖“电”的(算力层)
这里不卖普通的电,卖的是“智能”。英伟达是这层的包工头,靠着GPU成了全球股王。国内的华为昇腾、寒武纪正在拼命追。 - 二楼是造“大脑”的(模型层)
OpenAI、谷歌、深度求索在这里搞研发。这一层正在打一场“开源vs闭源”的惨烈战争。 - 三楼是干“杂活”的(应用层)
这里最热闹。AI变成实习生帮你写代码、做PPT、看病历。微软的Copilot是典型的包工头。
重点来了: 2026年的核心趋势是——AI正在从“烧钱”变成“赚钱”。推理成本暴跌,以前调用一次大模型要几块钱,现在可能只要几分钱。这意味着,AI不再是个供起来的“神像”,而是像水电一样可以随便用的“插座”。
读完这篇,你将获得:
对一级市场投资者:6个细分赛道的投资逻辑+退出路径分析 对二级市场投资者:4个值得跟踪的指标+3条主线标的梳理 对创业者:3个“巨头的盲区”+从0到1的实操路径 对求职者:8个高价值岗位+薪资区间+技能树 对求学者:本科/硕士/博士分别该选什么方向+导师选择建议 对行业研究员:10个核心数据指标+调研清单 
准备好了吗?带你把这栋楼逛明白。
第一章:一楼·算力层——AI世界的“印钞机”
如果把AI比作一辆顶级跑车,那算力就是发动机。没有算力,大模型连“你好”都说不利索。
1.1 芯片三兄弟:GPU、ASIC、FPGA
这一层的主角只有一个:芯片。但市面上有很多种,普通人根本分不清。
市面上主要有三种打工人:
- GPU(图形处理器):
- 外号“老黄牛”。原本是拿来打游戏画图的,结果被英伟达发现,这玩意儿算矩阵乘法特别快,正好是AI需要的。于是它成了AI算力的硬通货,贵得离谱,还被黄牛倒卖。
- ASIC(专用集成电路)
外号“专项人才”。谷歌的TPU、华为的昇腾都属于这类。它们干不了别的,只会算AI,但算得极快。如果说GPU是瑞士军刀,ASIC就是专门砍排骨的刀。 - FPGA(现场可编程门阵列)
外号“变形金刚”。它可以随时改写硬件逻辑,适合那些AI算法还没定型的场景,但在量产性价比上不如ASIC。
目前的格局:英伟达依然坐在铁王座上。2026年的GTC大会上,老黄发布了Vera Rubin超级芯片,单卡算力恐怖。但它的焦虑在于,客户开始“造反”了。微软、谷歌、亚马逊甚至特斯拉,都在自研芯片。谁也不想把命根子捏在英伟达手里。
1.2 国产芯片:悲壮的突围
说完国际巨头,必须聊聊国内的“全村希望”。
华为昇腾是目前的扛把子。虽然单卡性能和英伟达H100比还有差距,但华为的优势在于“集群”。单打独斗不行,我们就搞群殴。通过“星河”架构,把几千张卡连起来,整体算力并不输阵。
但瓶颈在哪? 不是设计,是制造。受限于先进制程,我们的芯片在功耗和散热上有劣势。英伟达的卡可能只需要风冷,华为的卡可能得上液冷。
这里冒出了一匹黑马:联想。虽然联想不造芯片,但它会“攒机”和“散热”。联想自研的“海神”液冷技术,能把高功耗芯片的热量带走,散热效率提升40%。在这个功耗爆炸的时代,谁能解决散热,谁就是算力界的“空调之父”。
其他值得关注的国产芯片玩家:
- 寒武纪
科创板AI芯片第一股,主打云端训练芯片思元系列。但商业化落地一直是个问题,政府订单占比较大。 - 海光信息
DCU(深度计算处理器)兼容英伟达CUDA生态,这是它的最大优势。开发者迁移成本低,深算二号已经在多个智算中心落地。 - 燧原科技
腾讯投资的AI芯片独角兽,专注云端训练和推理。第二代邃思芯片已经用在腾讯的混元大模型上。 - 壁仞科技
通用GPU设计能力很强,BR100系列算力参数一度很炸裂。但因为制裁,量产受阻,现在转向推理芯片和边缘计算。
1.3 算力互联:NVLink与以太网之争
很多人买了10张卡,发现算力并不是10倍,因为卡和卡之间“说话”太慢了。
英伟达有个杀手锏叫NVLink,这是它的“私聊通道”,极快。但这是封闭的。 为了打破垄断,业界正在推UALink(超级加速器链路)和InfiniBand。说白了,就是大家想建立一个通用的高速公路标准,不再看英伟达的脸色。
光模块的重要性被严重低估了。卡之间要通信,靠的是光模块。中际旭创、天孚通信、新易盛这些公司,虽然听起来不起眼,但它们是算力基础设施的“血管”。AI集群对高速率光模块(800G、1.6T)的需求爆炸式增长,这些公司的业绩确定性甚至比很多芯片公司都高。
1.4 数据中心与液冷革命
以前的机房,服务器吹吹空调就行了。现在的AI服务器,单卡功耗1000瓦,一个机柜几十张卡,那就是一个小型电暖器。
液冷不再是“可选项”,而是“必选项”。
- 浸没式液冷
把服务器直接泡在冷却液里。散热效率最高,但维护麻烦。 - 冷板式液冷
在芯片上贴一个“水冷头”。这是目前的主流方案,成熟度高。
几大云计算厂商的算力布局:
- 阿里云
自研“磐久”服务器,搭配阿里自研的含光NPU和倚天CPU。在全国布局了十几个智算中心。 - 腾讯云
星海服务器,支持多种异构芯片混布。腾讯的投资版图里有一堆芯片公司。 - 华为云
全栈自研,昇腾+鲲鹏+欧拉操作系统。政企市场的绝对霸主。 - 字节跳动(火山引擎)
豆包大模型的算力底座。字节的算力采购量是惊人的,它既是英伟达的大客户,也在自研推理芯片。
1.5 算力市场的三个趋势
趋势一:推理芯片需求超过训练芯片。 2024-2025年,大家都在“建模型”,所以训练卡供不应求。2026年开始,模型建得差不多了,大家都在“用模型”,所以推理卡的需求爆发。推理芯片不需要那么高的精度,国产芯片的机会来了。
趋势二:算力租赁市场成熟。 不是每家公司都买得起几千张卡。算力租赁平台应运而生。A100/H100的租赁价格从巅峰期的每小时8-10美金,降到了现在的2-3美金。算力不再稀缺,价格越来越亲民。
趋势三:边缘算力崛起。 不是所有AI都需要在云端跑。智能摄像头、自动驾驶汽车、AI手机,都需要在本地跑模型。边缘计算芯片(如高通、瑞芯微、全志科技)的春天来了。
一句话总结一楼: 算力依然是硬通货。但随着推理芯片的崛起和AMD的MI455X反攻,2026年算力短缺正在缓解,“算力自由”可能比想象中来得更快。
第二章:二楼·模型层——百模大战的“生死局”
一楼卖的是“电”,二楼就是各种“电器”品牌。这层是技术密度最高的,也是舆论战最猛的。
2.1 大模型训练的秘密:从预训练到RLHF
一个模型是怎么变聪明的?分四步走:
- 预训练
喂给它全网的书、代码、帖子。这叫“寒窗苦读十年”,花掉几千万美金电费。 - 微调
教它做阅读理解,告诉它“标准答案”长什么样。 - RLHF(基于人类反馈的强化学习)
这是最关键的一步。让模型生成两个答案,人类标注员选“哪个更像人话”,模型通过奖励机制学会说人话。 - RAG(检索增强生成)
为了让模型不胡说八道,工程师给模型配了个“外挂硬盘”。你问今天天气,它不去瞎编,而是先去搜索引擎查一下,再回答。这是目前防止幻觉的主流手段。
2.2 模型架构的演进:MoE与Scaling Law的瓶颈
MoE(混合专家模型)是2024-2026年最火的架构创新。 以前的模型是一个“全能选手”,什么都会但什么都不精。MoE是把多个“专家”塞进一个模型里,每次只激活一部分专家。比如你问数学题,就只调数学专家;你问历史,就只调历史专家。GPT-4、Mixtral、DeepSeek-V3都用了MoE。优点是训练和推理成本大大降低。
Scaling Law(规模定律)遇到了瓶颈。 以前大家相信:模型越大、数据越多、算力越强,模型就越聪明。这是OpenAI早期成功的秘诀。 但到了2026年,这个定律开始“失灵”了。单纯堆参数,收益递减。现在比拼的是数据质量和推理效率,而不是谁家的模型参数多。这也解释了为什么很多大厂开始转向“小模型”(SLM),在特定任务上用小参数模型达到接近大模型的效果。
2.3 国际格局:OpenAI的焦虑与Meta的转向
- OpenAI
依然是顶流,GPT-5.4系列在推理和Agent任务上依然最强。但它的护城河在变浅。谷歌的Gemini 2.5在多模态上已经追上来了。另外,OpenAI的封闭生态正在被挑战。Sam Altman最近承认,开源可能是必要的。 - 谷歌
技术极客的偏爱。谷歌不仅自己有Gemini,还有TPU芯片。它的逻辑是:用我的芯片,跑我的模型,租我的云。全栈打通,体验很顺滑。Gemini 2.5 Pro在编程能力上已经超过了GPT-4。 - Anthropic(Claude)
亚马逊40亿美金投资的独角兽。Claude 4系列的“Computer Use”功能是Agent领域的标杆。Claude的编程能力和长上下文(100万token)是它的差异化优势。 - Meta(Llama)
曾经的开源英雄。但注意,风向变了。Meta在2026年转向了闭源,发布了Muse Spark。为什么?因为扎克伯格发现,Llama养活了全世界,却没给Meta赚到钱。好人没好报,不如关门做生意。
欧洲有没有能打的? Mistral AI是法国的希望。它的Mixtral模型在开源社区口碑很好。Mistral走的是“开源+闭源”两条腿,中小企业很喜欢。但体量上跟中美巨头不在一个量级。
2.4 国内“百模大战”:谁还活着?
国内的战场极其惨烈。2023年有一百多个大模型,到2026年,牌桌上的只剩几个了。
- 阿里通义(Qwen)
现在的开源之王。Qwen系列模型在Hugging Face上下载量接近10亿,占了中国开源份额的半壁江山。阿里的策略是“农村包围城市”,先用开源吸引开发者,等你们用习惯了,再用付费的闭源企业版收割。Qwen-72B是目前国内最强的开源模型之一。 - 字节跳动(豆包)
字节是卷王。豆包大模型的日均Token消耗量在2026年3月突破了120万亿。字节不计成本地推,意图很明显:我要垄断应用层的流量入口。豆包App的DAU已经超过了文心一言和通义千问的总和。 - 智谱AI
清华系的骄傲。智谱敢把API价格提价83%,结果调用量反而涨了400%。这说明企业客户现在不图便宜,图省事、图能力强。智谱的GLM-5系列在中文理解和推理上很强。 - 深度求索(DeepSeek)
量化交易公司幻方量化孵化的。价格屠夫。DeepSeek-V3把推理成本打到了骨折(每百万token仅1元人民币),是很多中小创业者的福音。技术实力不容小觑,在代码生成和数学推理上表现优异。 - 月之暗面(Kimi)
长文本的王者。Kimi是国内第一个把上下文做到200万token的。它的产品体验很好,尤其在处理大篇幅文档时。但商业化路径还在探索。 - MiniMax
出海做得最好的国内AI公司。MiniMax的Talkie(海外版Glow)在北美很火,主打AI陪伴。它的语音模型很出色,是少有的“产品驱动”而非“技术驱动”的AI公司。 - 百度文心
一个比较伤感的故事。李彦宏是最早看透闭源逻辑的人,但在2024-2025年,文心的技术迭代没跟上,导致虽然战略对了,但产品没守住,最终在混战中掉队。文心一言的DAU被豆包反超后,一直没有翻盘。
2.5 开源vs闭源:罗生门终于有答案了
争论了两年的问题,2026年终于有结果了。
结论是:闭源赚钱,开源赚名。
- 闭源
(如GPT-4、Claude、文心):能力强,有技术壁垒,适合最顶尖的场景。企业为了数据安全和高性能,愿意买单。 - 开源
(如Llama、Qwen):适合中小开发者、学术研究。你可以把它下载到自己的电脑里,数据不上传,绝对隐私。
但现在出了一个新变种:“开源做生态,闭源做变现”。阿里就是典型,我把Qwen开源给你用,等你公司做大了,遇到复杂问题了,请买我的企业版API。
还有一种模式:开源做品牌,闭源做利润。 DeepSeek和智谱都在用这个策略。开源版本吸引开发者和口碑,闭源企业版赚钱。
2.6 模型层的商业逻辑:API经济的崛起
模型层怎么赚钱?主要有三种方式:
- API调用收费
按Token计费。这是最直接的。GPT-4的价格已经从巅峰期的每百万token 30美金降到了2.5美金。价格战极其惨烈。 - 企业定制微调
给大企业做专属模型。比如帮银行训练一个金融领域的垂直模型。客单价高,但难以规模化。 - 模型托管+服务
把模型部署到客户的云上(私有化部署)。适合数据安全要求高的行业,比如政府、军工。
模型层的核心竞争力正在转移:
从“参数大”转向“推理快” 从“通用强”转向“垂直精” 从“技术牛”转向“产品好”
第三章:三楼·应用层——AI开始“打工”了
前面所有的算力和模型,如果不落地到应用,都是空中楼阁。三楼才是离普通人最近的地方。
3.1 Agent(智能体):从“聊天”到“干活”
以前AI是“你说一句,它回一句”。 现在的AI是实习生。
你告诉它:“帮我订下周五去上海的机票,顺便把酒店定了,预算500以内。” Agent会自己打开浏览器,登录携程,比较价格,选好座位,甚至帮你填好身份证号。如果发现酒店超预算了,它还会回头问你:“要不要提高预算?”
2026年,“Claude Computer Use”和OpenClaw成了爆款。腾讯甚至推出了“小龙虾”QBotClaw,浏览器里内置了AI技能,一句话就能干活。
Agent的三种形态:
- 单任务Agent
完成一个明确的任务,比如“总结这篇PDF”。这是目前最成熟的。 - 多步推理Agent
完成一个复杂的任务链,比如“帮我规划一个北京三日游,包括机票、酒店、景点、餐厅”。 - 自主Agent
长期运行,持续完成任务。比如“帮我监控我的GitHub仓库,有人提Issue就自动回复”。
Agent的技术难点在哪?
- 工具调用
Agent需要知道“订机票”这个动作对应哪个API。 - 任务规划
Agent需要把“订机票”拆解成“搜索-筛选-比价-下单-支付”这几个步骤。 - 错误恢复
如果支付失败了,Agent需要知道怎么处理。
3.2 AI搜索:谷歌的噩梦
传统的搜索是:你输入关键词,它给你一堆链接。 AI搜索是:你问一个问题,它直接给你答案。
Perplexity AI是这一赛道的标杆,估值已经超过10亿美金。它的特点是:搜索结果附带引用来源,回答有据可查。 国内的玩家:百度已经全面AI化了,搜出来的结果第一条是AI生成的内容。字节的“头条搜索”也在做AI化。360的“纳米搜索”主打免费和去广告。
AI搜索对广告模式的冲击:谷歌每年靠搜索广告赚2000亿美金。如果用户不点链接了,广告主就不投了。这是谷歌最大的焦虑。
3.3 行业落地:谁在闷声发大财?
编程(Copilot):这是目前最成熟的领域。Cursor、微软GitHub Copilot、亚马逊CodeWhisperer,程序员用AI写代码已经是基操。效率提升50%以上。这个赛道已经卷成红海了,新入局者很难。
营销:AI生成海报、写小红书文案、做短视频。虽然很多大厂看不上,但中小企业主已经用疯了。Jasper、Copy.ai是海外代表,国内的“易撰”、“小冰”也在做。
金融:智能风控、研报自动生成。虽然不能完全取代分析师,但处理海量数据的效率是人类的亿万倍。彭博社的Bloomberg GPT是标杆。
医疗:AI辅助诊断(影像识别)、病历自动生成、药物研发。这是最慢的赛道,因为监管太严。但一旦落地,价值巨大。推想科技、科亚医疗是国内的先行者。
法律:合同审查、法律文书生成。律所的初级律师岗位正在被AI取代。Harvey AI是海外的明星项目。
教育:AI一对一辅导。可汗学院的Khanmigo是标杆。国内的科大讯飞、网易有道都在做。这个赛道的问题是:家长愿意付费,但效果需要验证。
制造:联想给FIFA做的AI解决方案,把数据分析效率提升了60%。还有工业质检,用AI看零件有没有划痕,比老师傅的眼睛准多了。工业富联、海康威视是这一领域的龙头。
具身智能(机器人):腾讯发布的HY-Embodied-0.5模型,让机器人有了“小脑”。以前的机器人只会按程序动,现在的机器人能看、能听、能推理,甚至能帮你叠衣服。世界模型正在构建中,即让AI理解物理世界的重力、硬度、触感。特斯拉的Optimus、Figure 01是标杆。国内的宇树科技、智元机器人(华为天才少年稚晖君创办)正在追赶。
3.4 ToB vs ToC:两条腿走路
ToC(面向大众):难。因为中国用户习惯了免费。字节的豆包靠免费狂揽用户,但变现主要靠广告和增值服务。月之暗面的Kimi也是免费的,但烧钱太快。ToC的痛点:获客成本高、留存率低、变现难。
ToB(面向企业):真香。企业愿意为提高生产力付费。微软、阿里云、火山引擎都在疯狂卖API。企业买Token,就像工厂买原材料一样,成了刚需。ToB的优势:客单价高、粘性强、现金流好。但销售周期长,需要做POC(概念验证),对产品要求高。
ToB和ToC的区别:
ToC关注体验和日活 ToB关注ROI和续费率
3.5 AI陪伴:被低估的千亿赛道
AI伴侣(Character.AI、Talkie、Glow)正在爆发。用户可以和AI谈恋爱、倾诉心事、甚至“开车”。这个赛道争议很大,但数据很好看。
为什么火?
情感需求是刚需。现实中的社交太累了,AI永远有耐心、永远不judge。 变现路径清晰。用户愿意为“更好的陪伴”付费,订阅制、虚拟礼物都是可行的。
风险在哪?
监管风险。涉及色情、诱导未成年人等问题。 用户粘性。用户可能新鲜感过了就流失了。
第四章:支撑体系——AI背后的“铲子”与“护栏”
一个产业的繁荣,光有核心玩家不够,还需要无数配套。
4.1 数据:AI的石油
大模型的能力不取决你算法多牛,取决于你喂的数据多干净。
- 预训练数据
全网的数据快被AI学完了,现在互联网上的高质量文本快“枯竭”了。Common Crawl(一个存储了全球几十亿网页的数据库)已经被扒了好几遍。 - 合成数据
为了解决没饭吃的问题,让AI自己生成数据喂给自己。这叫“左右互搏”,AlphaGo就是这么练出来的。微软、谷歌都在用合成数据训练小模型。 - 标注
虽然自动化标注很流行,但在一些专业领域(比如医疗影像、法律文书),仍然需要大量廉价劳动力去给图片打标签。这背后是一个巨大的数据标注产业,很多在非洲和东南亚,国内也有很多基地在四五线城市。Scale AI是这一赛道的独角兽,估值超过70亿美金。
数据的商业机会:
- 数据清洗/预处理
把脏数据变干净。这是AI项目的第一步,也是最苦最累的活。 - 数据采购/交易
买卖高质量数据集。比如医疗影像数据、金融交易数据。 - 隐私计算
在保护隐私的前提下使用数据。联邦学习、差分隐私是技术方向。
4.2 工具链:AI的“扳手”
- PyTorch / TensorFlow
两大深度学习框架,相当于AI界的“Windows操作系统”。现在PyTorch是绝对主流(85%以上的论文用PyTorch)。TensorFlow主要在谷歌内部和部分工业界用。 - LangChain / Dify / LlamaIndex
这些是编排AI工作流的工具。你要做一个“自动写周报”的机器人,不需要写很多代码,用LangChain把“读数据-调用大模型-格式化输出”串起来就行。Dify这类产品更火,因为它提供了可视化的界面,让非技术人员也能搭AI应用。 - vLLM / TensorRT-LLM
模型推理加速工具。同样的模型,用vLLM部署,速度能快5-10倍。这是AI工程化落地的关键。 - Hugging Face
AI界的GitHub。模型、数据集、代码都在上面共享。任何做AI的人都离不开它。
4.3 评测与安全
大模型不能“放养”。
- 对齐
让AI的价值观和人类对齐,不能教它学坏。这是OpenAI最早提出的概念,现在已经成为AI安全的基石。 - 红队测试
找一群“坏蛋”去攻击大模型,试图让它说出种族歧视、制作危险品的方法。找到漏洞,堵上漏洞。大公司都有专门的“红队”团队。 - 内容审核
这是字节、腾讯等大厂的底线。任何生成的文字、图片必须过一道审核机,不能涉黄涉暴。这是合规的硬成本。 - 水印/溯源
AI生成的内容需要加水印,以便追溯。这是政策要求,也是技术难点。
第五章:行业格局——巨头们的“合纵连横”
现在的AI圈,就像战国七雄。
5.1 微软 - OpenAI:最稳定的“夫妻店”
微软出钱、出云,OpenAI出技术。微软把GPT塞进了Windows、Office、Bing、Azure。 虽然最近微软也开始搞自研小模型(MAI系列),试图“养小三”,但大方向上,他们俩依然是最强联盟。微软靠这个市值超过了苹果。
微软的AI收入拆解(估算):
GitHub Copilot:年收入约3亿美金 Azure OpenAI API:年收入约10亿美金 Office 365 Copilot:年收入约20亿美金 Bing AI搜索:广告收入增量不明显
关键数据:微软Azure云的收入增速在AI的带动下提升了约6个百分点。
5.2 谷歌 - DeepMind:技术派的“复仇”
谷歌把DeepMind和“谷歌大脑”合并后,战斗力爆表。Gemini 2.5系列的技术指标经常吊打GPT。 谷歌的策略是“软硬一体”,你有ChatGPT,我有Gemini;你有英伟达,我有TPU。 最大的看点是:谷歌正在把TPU卖给外部客户。如果成了,英伟达的垄断就要被撕开一个大口子。
谷歌的焦虑:搜索广告被AI搜索冲击。谷歌正在尝试把AI整合进搜索结果,但广告位的减少会影响收入。
5.3 亚马逊 - Anthropic:有钱人的“联姻”
亚马逊投了Anthropic几十亿美金。条件很简单:Claude必须跑在亚马逊的云上。 Claude被认为是编程能力和长文本理解的王者,尤其是它的“Computer Use”功能,是Agent领域的标杆。
亚马逊的算盘:AWS的增速在放缓,需要AI来拉动。Anthropic是最好的“钩子”,让企业因为Claude而选择AWS。
5.4 Meta:从开源英雄到闭路玩家
Meta的AI战略很拧巴。一边是开源的Llama(给全世界的礼物),一边是闭源的Muse Spark(自家赚钱的工具)。 扎克伯格的逻辑:用开源做生态,用闭源做利润。Llama帮助Meta招揽AI人才、提升品牌形象。Muse Spark用来在广告系统里赚钱。
5.5 中国阵营的分化
第一梯队:互联网大厂(阿里、字节、腾讯、华为)
家底厚,全栈布局。既要搞芯片,又要搞模型,还要卖云服务。 它们的优势是:有钱、有数据、有场景。 阿里的电商场景天然适合AI导购;腾讯的社交场景天然适合AI陪伴;字节的内容场景天然适合AI推荐。 它们的劣势是:组织臃肿,决策慢,内部赛马严重。
第二梯队:AI独角兽(智谱、MiniMax、月之暗面、百川智能)
它们是创业公司,包袱轻,算法强。 但在烧钱大战中,它们必须尽快找到盈利模式。 智谱靠闭源API提价还能增长,给独角兽们指了一条明路:做高客单价的企业服务。 月之暗面靠Kimi积累了大量C端用户,但商业化还在探索。 MiniMax靠出海赚美金,Talkie的海外收入很可观。
第三梯队:传统转AI(联想、工业富联、海康威视)
它们不碰核心算法,但它们做算力基础设施和行业解决方案。 卖服务器、卖液冷方案、卖AI摄像头。 它们是“卖铲子的人”,不管谁挖到金矿,卖铲子的永远稳赚。
5.6 投资热点与泡沫风险
现在哪些赛道最热?
- AI Infra
算力、芯片、液冷、光模块。确定性最高。 - Agent
让AI干活的工具。商业化路径最清晰。 - AI搜索
挑战谷歌的万亿市值,想象力巨大。 - AI陪伴
用户增长快,变现路径清晰。 - 具身智能
长期看好,但短期落地难。
哪些赛道有泡沫?
- 纯套壳应用
调用GPT API做个小工具,没有技术壁垒。 - 通用的AI客服
太卷了,价格战打到地板上。 - AI生成PPT/简历
工具性太强,用户用完就走,没有粘性。
如何判断一个AI项目是不是泡沫? 问三个问题:
这个产品解决的是“痒点”还是“痛点”?(痛点才值得付费) 这个产品的技术壁垒有多高?(如果谁都能做,迟早卷死) 这个产品的获客成本是多少?(ToC的获客成本已经很高了)
第六章:给七类人的实操指南
这一章是全文最干的干货。如果你是投资者、创业者、求职者或求学者,请仔细阅读。
6.1 给一级市场投资者(VC/PE)
核心判断:AI投资已经从“投技术”转向“投场景”和“投数据”。
6个值得关注的细分赛道:
- AI Infra(基础设施层)
确定性最高,但估值也最贵。
芯片设计:看好边缘计算芯片(端侧推理)和存算一体芯片。 液冷/散热:AI集群的刚需,技术壁垒高。 数据清洗/标注:虽然苦,但现金流好。 - 退出路径
并购为主(卖给阿里、字节、腾讯),IPO为辅。
- 垂直行业SaaS+AI
大模型搞不定的细分场景。
医疗:病历结构化、辅助诊断、药物研发。 法律:合同审查、法律文书生成。 金融:智能投顾、风控模型。 教育:AI一对一辅导。 - 退出路径
IPO为主(科创板偏好有收入的SaaS公司)。
- Agent中间件
帮企业把大模型“装进”业务流程。
工具调用、任务编排、记忆管理。 - 代表公司
LangChain(融资中)、Dify(已获红杉投资)。 - 退出路径
并购(被云厂商收购)。
- AI搜索/知识管理
帮企业把内部文档变成可问的数据库。
Glean是海外的标杆(估值20亿美金)。 国内的“飞书智能助手”、“钉钉魔法棒”在做类似的事。 - 退出路径
并购(被协同办公软件收购)或独立IPO。
- AI安全/内容审核
大模型合规的刚需。
模型对齐、红队测试、水印技术。 - 退出路径
被大厂收购(OpenAI、微软都在买)。
- 具身智能/机器人
长期看好,但短期需要耐心。
技术成熟度:2-3年。 投资阶段:天使轮、A轮为主。 - 退出路径
IPO或并购(被特斯拉、比亚迪等车企收购)。
避坑指南:
别碰“PPT AI公司”。没有实际产品、没有客户验证的,一律pass。 别碰“纯套壳”。没有技术壁垒、没有数据飞轮的,活不过18个月。 别碰“烧钱换增长”的ToC。获客成本太高,留存率太低,除非你有字节级别的流量。
尽职调查的10个关键问题:
你们的模型/产品解决了什么痛点?(痒点还是痛点?) 你们的技术壁垒是什么?(如果大厂做,你们怎么办?) 你们的客户是谁?客单价多少?获客成本多少? 你们的毛利率是多少?(AI应用的毛利率应该>70%) 你们的客户留存率(NDR)是多少?(SaaS标准:>100%是优秀) 你们的团队背景是什么?(有没有做过ToB销售?有没有发过顶会论文?) 你们的推理成本是多少?(太高的迟早被卷死) 你们的数据来源是什么?(合法吗?有版权问题吗?) 你们的合规策略是什么?(监管来了怎么办?) 你们的退出路径是什么?(谁会买你们?)
6.2 给二级市场投资者(散户/机构)
核心判断:AI主题投资已进入“业绩验证期”。
4个值得跟踪的核心指标:
- 英伟达的数据中心收入
全球AI算力的风向标。每个季度财报必看。 - 台积电的AI相关收入
芯片代工的晴雨表。台积电说AI好,就是真的好。 - 微软Azure的增速(AI贡献部分)
企业AI采用度的代理指标。 - 国内大模型的API价格
价格还在跌,说明还在卷;价格企稳了,说明格局定了。
3条主线标的梳理:
主线一:算力基础设施(确定性最强)
- A股
中际旭创(光模块)、天孚通信(光模块)、工业富联(AI服务器)、浪潮信息(服务器)、中科曙光(算力)、海光信息(DCU)、寒武纪(AI芯片)、光环新网(数据中心)、奥飞数据(数据中心)。 - 港股
联想集团(AI PC+服务器+液冷)、商汤(AI+算力)。 - 美股
英伟达(GPU)、AMD(追赶者)、博通(ASIC)、美光(HBM内存)、台积电(代工)、Arista(交换机)。
注意:光模块和服务器公司的业绩确定性最高,但估值已经不便宜了。算力租赁公司的业绩波动大,谨慎。
主线二:大模型/云计算(竞争激烈,但龙头受益)
- A股
科大讯飞(星火大模型)、三六零(纳米搜索)。 - 港股
阿里巴巴(通义大模型+云)、腾讯(混元大模型)、百度(文心大模型,但有掉队风险)。 - 美股
微软(Azure+OpenAI)、谷歌(Gemini+TPU)、亚马逊(AWS+Anthropic)、Meta(Llama+Muse)。
注意:大模型公司的估值逻辑已经从“市销率”转向“每用户价值”。关注云收入的增速,而不是模型参数的多少。
主线三:应用/行业落地(弹性最大,风险最高)
- A股
金山办公(WPS AI)、用友网络(企业服务AI)、广联达(建筑AI)、卫宁健康(医疗AI)、同花顺(金融AI)、万兴科技(视频AI)。 - 港股
快手(可灵AI视频)、美团(AI+本地生活)。 - 美股
Salesforce(Einstein AI)、Adobe(Firefly AI)、ServiceNow(Now AI)、Snowflake(AI数据云)。
注意:应用层的公司,要看“AI收入占比”和“AI对主业收入的拉动”。纯蹭概念的,远离。
散户的实操建议:
别追高。AI板块波动大,追高容易套牢。 定投ETF。如果不会选股,买AI ETF(如159819、515880)。 关注财报季。每个季度的财报是验证逻辑的时刻。 警惕“伪AI概念股”。很多公司只是蹭热点,没有实际AI收入。
6.3 给创业者
核心判断:现在是AI创业的“最佳窗口期”,但不是“最疯狂期”。
3个“巨头的盲区”:
- 垂直行业的深度定制
巨头做的是“通用平台”,没精力做“垂直场景”。比如“医疗病历结构化”,这个市场不大,但利润丰厚。巨头看不上,小公司活得很好。 - 企业的私有化部署
很多企业(尤其是国企、政府)不允许数据上云。他们需要模型跑在本地。巨头的SaaS模式不适合他们。如果你能做私有化部署+定制开发,客单价可以做到几十万甚至几百万。 - 海外市场的差异化
国内太卷了,出海可能是更好的选择。比如AI陪伴、AI教育工具、AI营销工具,在欧美市场有很好的付费意愿。MiniMax的Talkie已经证明了这条路可行。
从0到1的实操路径:
第0步:找准赛道
不要做大模型(那是巨头的事)。 不要做通用应用(太卷了)。 做“垂直行业+AI”或“AI工具链”。
第1步:快速验证(0-3个月)
用现成的API(OpenAI、Claude、通义、DeepSeek)搭一个MVP。 找10个种子用户试用,收反馈。 如果用户愿意付费(哪怕100块钱),说明需求是真的。
第2步:找到PMF(3-12个月)
PMF(Product-Market Fit)的标志:用户主动找上门、复购率高、口碑传播。 不要急着融资。先跑通一个付费客户。 关注两个指标:客户获取成本(CAC)和客户生命周期价值(LTV)。LTV > 3倍CAC才健康。
第3步:规模化(12-24个月)
融资。找那些懂AI的VC。 招人。技术+销售+产研,一个都不能少。 建壁垒。可以是数据壁垒、渠道壁垒、技术壁垒。
创业者常见的坑:
坑1:技术至上,忽视销售。很多AI创业者是技术出身,以为“产品好就会有人买”。错。ToB需要销售,需要POC,需要关系。 坑2:贪大求全,什么都想做。一个初创公司,资源有限,先在一个垂直场景扎深。 坑3:忽略合规。AI生成内容有风险,数据来源有风险。不要等到被监管叫停了再补救。 坑4:烧钱太快。ToB的回款周期是3-6个月,现金流管理是生死线。
融资建议:
天使轮:100-500万人民币。证明“需求存在”。 A轮:1000-3000万人民币。证明“有人愿意付费”。 B轮:5000万-1亿人民币。证明“可以规模化”。 现在的AI融资环境:比2023年冷静,比2019年热。好项目不缺钱,差项目没人理。
6.4 给求职者
核心判断:AI岗位的需求在增长,但门槛在提高。
8个高价值岗位+薪资区间(2026年,一线城市):
- 算法工程师(大模型方向)
50-150万/年
要求:顶会论文(NeurIPS、ICML、ICLR)、大模型训练经验、分布式系统知识。 供不应求,但门槛极高。
- 算法工程师(应用/微调方向)
30-80万/年
要求:熟悉PyTorch、Hugging Face、有微调和RAG经验。 这是最主流的岗位,需求量最大。
- AI Infra工程师(推理优化)
40-100万/年
要求:熟悉vLLM、TensorRT、CUDA编程、模型量化。 很稀缺,竞争少。
- MLOps工程师
30-70万/年
要求:熟悉Kubernetes、Docker、CI/CD、模型部署。 需求在增长,是AI工程的“幕后英雄”。
- AI产品经理
40-80万/年
要求:懂AI技术边界,懂用户需求,懂商业逻辑。 这是目前最稀缺的岗位之一。懂技术的PM太少。
- AI销售/解决方案
30-60万/年(+提成)
要求:懂AI能做什么、不能做什么,有ToB销售经验。 需求量大,但优秀的AI销售很少。
- 数据标注/清洗工程师
15-30万/年
要求:细心、耐心、懂一些脚本语言(Python)。 门槛低,但天花板也低。适合作为进入AI行业的起点。
- AI安全/合规工程师
40-80万/年
要求:懂AI模型、懂法律法规、懂红队测试。 新兴岗位,需求在快速增加。
技能树:
必须会的硬技能:
Python(必须) PyTorch或TensorFlow(至少一个) 基础的机器学习/深度学习知识(线性代数、概率论、微积分) 提示词工程(Prompt Engineering)
加分项:
分布式训练(DeepSpeed、Megatron) 推理优化(vLLM、TensorRT) RAG(LangChain、LlamaIndex) 模型微调(LoRA、QLoRA) 云计算(AWS、Azure、阿里云)
求职建议:
应届生:先刷LeetCode,再刷Kaggle。简历上最好有开源贡献(比如给Hugging Face提过PR)。 转行者:从AI产品经理或AI销售切入,不需要写代码。或者从数据标注做起,边干边学。 有经验者:往“AI+行业”方向走。比如“AI+金融”、“AI+医疗”,懂行业的人更稀缺。
哪些岗位有被AI取代的风险?
初级程序员(AI写代码越来越强) 初级设计师(AI画图越来越强) 初级文案(AI写稿越来越强) 客服(AI聊天越来越强)
哪些岗位反而更值钱了?
AI产品经理(需要判断AI能做什么、不能做什么) 行业专家(需要把行业知识“喂”给AI) 销售/BD(AI搞不定复杂的人际关系)
6.5 给求学者(本科、硕士、博士)
核心判断:AI不是“专业”,而是“工具”。
本科生:
选什么专业?
- 首选
计算机科学与技术。基础最扎实,出路最宽。 - 次选
人工智能(如果学校有这个专业)。但很多学校的人工智能专业课程设置混乱,不如CS稳妥。 - 备选
数学/统计/自动化。打好数理基础,研究生再转AI。
本科阶段应该做什么?
大一大二:打好数学基础(线代、概率、微积分)+编程基础(Python、数据结构)。 大三大四:学机器学习和深度学习(吴恩达的CS229、李沐的动手学深度学习)。刷Kaggle。找实习(大厂的AI岗位)。 毕业去向:大部分本科生做不了算法岗(门槛太高)。可以做AI开发、测试、运维、产品、销售。如果想做算法,建议读研。
要不要读研?
想做算法岗:建议读研。现在大厂的算法岗基本都是硕士起步,很多是博士。 想做工程/产品/销售:本科够了。2年工作经验比2年研究生学历更值钱。
硕士生:
选什么方向?
- 热门方向
:NLP(自然语言处理)、CV(计算机视觉)、多模态、大模型、AI安全。 - 冷门但有潜力
:AI for Science(AI+物理/化学/生物)、具身智能、AI芯片设计。
硕士阶段应该做什么?
发论文。顶会论文是算法岗的“硬通货”。 做项目。开源贡献、实习项目、实验室项目。有落地经验很重要。 找实习。大厂的AI实习经历,对求职帮助巨大。 选导师。去Google Scholar搜导师的论文,看近三年的产出。避开“放养型”导师和“压榨型”导师。
硕士毕业去向:
大厂算法岗(字节、阿里、腾讯、美团、拼多多) AI独角兽(智谱、MiniMax、月之暗面) 创业公司 继续读博(如果对研究有热情)
博士生:
选什么方向?
建议选“有长期价值”的方向,而不是“追热点”。今天的热点,3年后可能就凉了。 推荐方向:模型效率(推理加速、模型压缩)、AI安全/对齐、具身智能/世界模型、AI for Science。 慎选:纯刷榜方向(只会在某个数据集上SOTA,没有实际意义)。
博士阶段应该做什么?
发高质量论文(NeurIPS、ICML、ICLR、CVPR、ACL)。数量不重要,质量重要。 建立学术网络。去顶会,认识同行,找合作。 考虑工业界实习。大厂的AI Lab(如腾讯AI Lab、阿里达摩院)是很好的选择。
博士毕业去向:
大厂研究院(如微软亚洲研究院、谷歌大脑) 高校教职(越来越卷,需要顶级论文+海外经历) 创业(很多AI独角兽的创始人是博士) 量化交易(对冲基金很喜欢AI博士,钱多)
给所有学生的通用建议:
不要只学AI。AI是一个工具,要结合一个行业。比如“AI+金融”、“AI+生物”、“AI+法律”。 动手比看书重要。跑通一个模型,比看完一本书更有用。 关注开源社区。Hugging Face、GitHub是你最好的老师。 英语很重要。最前沿的论文、博客、教程都是英文的。
6.6 给行业研究员
核心判断:AI行业的研究需要“从技术到商业”的跨学科视角。
10个核心数据指标:
算力层:
- 英伟达数据中心收入
全球AI算力的风向标。Q1 FY2026约为180亿美金。 - H100/H200/B200的交付周期
从峰值期的52周降到了现在的8-12周。供需在缓解。 - 国内智算中心建设规划
2026年全国规划新增智算算力约30EFLOPS,其中华为昇腾占比约40%。
模型层:
- API调用价格(每百万token)
GPT-4约2.5美金,Claude约3美金,DeepSeek约0.14美金(约1元人民币)。 - Hugging Face模型下载量
Qwen系列累计约10亿次,Llama系列约8亿次。 - 国内大模型DAU
豆包约2000万,文心约800万,Kimi约500万,通义约400万。
应用层:
- 微软Copilot的付费用户数
约300万企业用户。 - GitHub Copilot的ARR
约3亿美金。 - 企业AI采用率
麦肯锡调研显示,约65%的企业在至少一个业务中使用AI。 - AI相关岗位招聘数量
国内2026年Q1约15万个,同比增长20%。
调研清单(去一家AI公司,问这10个问题):
你们的产品解决了什么具体问题?(痛点确认) 你们的技术壁垒是什么?(护城河) 你们的客户是谁?客单价多少?(市场定位) 你们的获客成本是多少?客户生命周期价值是多少?(单位经济) 你们的客户留存率是多少?(产品粘性) 你们的推理成本是多少?未来能降多少?(成本结构) 你们的数据来源是什么?有版权问题吗?(合规风险) 你们的团队背景是什么?(执行能力) 你们最大的竞争对手是谁?你们比他们强在哪?(竞争格局) 如果大厂做同样的事,你们怎么办?(防御能力)
研究框架建议:
短期(3-6个月): 关注推理成本下降带来的应用爆发。跟踪API价格变化、Agent产品的用户增长。
中期(1-2年): 关注端侧大模型的渗透率。AI手机、AIPC的出货量是关键指标。跟踪苹果、联想、小米的AI硬件销量。
长期(3-5年): 关注具身智能和世界模型的进展。跟踪特斯拉Optimus、Figure 01、腾讯HY-Embodied的demo和落地情况。
报告写作建议:
不要只写技术,要写商业。 不要只写国内,要写全球对比。 不要只写乐观,要写风险和不确定性。 数据要可溯源,结论要有逻辑。
第七章:未来2-3年——风往哪里吹?
看到这里,如果你还在读,说明你对这个时代是真爱。最后聊聊未来。
7.1 端侧大模型:AI从云端走进手机
现在的AI在云端,有个延迟。你跟AI说话,数据传到美国服务器,算完再传回来,哪怕只有0.5秒,也感觉卡卡的。 端侧大模型就是把模型压缩,塞进手机芯片里。
- AI手机
2026年,没有AI能力的手机不好意思叫旗舰机。高通骁龙8 Gen 5、联发科天玑9500都在集成NPU。以后修图、实时翻译、语音助手,全在本地完成,不需要联网,更保护隐私。苹果的A18 Pro芯片也在强化AI能力,iOS 18的“Apple Intelligence”是重头戏。 - AIPC
联想、惠普、戴尔在狂推AI PC。你的电脑里自带一个“小模型”,你可以在本地跑文档总结,不用担心商业机密上传到云端。英特尔酷睿Ultra、AMD锐龙8040都集成了NPU。预计2027年AI PC的渗透率将超过50%。
7.2 推理成本的“iPhone时刻”
2023年,让GPT帮你写一篇论文,可能要几块钱。 2026年,成本可能只要1分钱。 当推理成本趋近于零时,AI就会像“水电煤”一样无处不在。网页里嵌个AI助手帮你读文章,购物车里嵌个AI帮你比价,这些都是顺理成章的事。Token经济正在成为新的商业货币。
推理成本下降的驱动力:
模型架构优化(MoE、量化、蒸馏) 推理芯片专用化(Groq、Cerebras) 算力过剩(训练卡转推理卡)
7.3 具身智能:真正的“终结者”?
如果说大模型是大脑,具身智能就是身体。 特斯拉的Optimus,腾讯的HY-Embodied机器人,Figure 01,都在进化。 2026年,我们看到的是机器人在工厂里搬箱子、在实验室里做实验。 2-3年内,可能会看到家政机器人帮你收拾屋子。世界模型的突破是关键——让AI理解“杯子摔了会碎”、“水是湿的”这种常识。
具身智能的技术难点:
感知:机器人需要“看”到环境。 规划:机器人需要“想”好怎么动。 控制:机器人需要“做”到精确的动作。 硬件:关节电机、灵巧手、电池续航。
7.4 泡沫与机会
有没有泡沫?有,肯定有。 很多套壳的AI公司会死掉,就像当年的“百团大战”最后只剩美团。 但基础设施层的机会是确定的。无论应用层怎么洗牌,卖算力、卖芯片、卖散热方案的永远有生意。
对于不同角色,机会在哪?
- 对于投资者
:关注AI Infra和垂直行业应用,远离纯套壳。 - 对于创业者
:做“巨头的盲区”,做垂直场景,做私有化部署。 - 对于求职者
:往“AI+行业”方向走,懂AI又懂行业的人最值钱。 - 对于求学者
:打好基础,动手实践,关注开源。 - 对于普通人
:学会用AI工具。最值钱的人,不再是那个只会写代码的程序员,而是那个懂法律、懂医疗、懂建筑,同时又懂如何使用AI工具的“双栖人”。
【写在最后】
这栋三层小楼,我们从头逛到尾。
- 一楼
的轰鸣声依然震耳欲聋,算力的竞赛远未结束。 - 二楼
的战争已经从“参数竞赛”转向了“落地竞赛”,开源与闭源的迷雾已经散去,商业变现成了唯一真理。 - 三楼
是最热闹的,这里正在重塑每一个行业,哪怕是最传统的农业和制造业。
AI不是神,它只是一个放大器。 它放大你的能力,也放大你的懒惰。 它能写出莎士比亚的句子,但它不懂爱情; 它能画出梵高的星空,但它不懂孤独。
在这个时代,不需要焦虑。保持好奇心,把它当成你的实习生,去驾驭它,而不是惧怕它。 未来已来,而且正在流行。
夜雨聆风