我们正处于一个甚至无法用过往经验来预测未来的节点。
人类的角色正从“操作者”转变为“监督者”。
2026【Harness范式兴起与AI生态重塑】
模型竞赛持续加速
- 1月
,Kimi K2.5发布 — 月之暗面发布开源模型,加强多模态能力,深度优化Agent应用。 - 2月
,Claude Opus 4.6发布。同月,谷歌推出Gemini 3 Deep Think升级版,该模式在“人类最后的考试”等超难基准测试中得分超越GPT-5.2和Claude Opus 4.6。月底发布Gemini 3.1 Pro。 - 2-3月
,GPT-5系列密集迭代 — GPT-5.4首次原生支持电脑操控(Computer Use),可依据屏幕画面自主执行键盘鼠标操作。
2026年4月
- 4月
Claude Opus 4.7发布。GPT-Image-2 上线会“思考”的图像AI,上线12小时实现“三榜通杀”。
OpenClaw引爆Agent工程化浪潮 2025年11月,奥地利程序员彼得·斯坦伯格发布开源AI智能体框架OpenClaw。用户可通过它驱动大模型操作电脑、调用工具、执行多步任务。发布数月后GitHub星标超35万,中国市场迅速全面接入,多个地方政府出台补贴政策。黄仁勋称其为"迄今发布过的最重要软件"。
OpenClaw被封杀与算力经济学 2026年3月,OpenAI正式封杀OpenClaw。核心原因:不足1%的OpenClaw用户消耗了超过40%算力资源,20美元月费撬动数千美元实际成本。低价订阅的套利空间被彻底堵死,AI"低价订阅、无限调用"的灰色红利时代终结。同期工信部NVDB首次针对AI Agent发布专项安全预警。
从OpenClaw到Harness——行业范式升级 OpenClaw的兴衰揭示了一个更深层的工程问题:Agent真正的瓶颈不在于"能不能跑通一次",而在于"能不能持续可靠地运行"。 OpenClaw暴露了三个核心缺陷——大模型一换就崩溃(模型锁定)、提示词无法自适应环境变化(提示脆弱)、无法应对工具更新和权限变更(环境僵化)。 Harness概念由此兴起,成为Agent工程的新核心范式。行业共识逐渐成形:Agent工程的重心必须从"执行框架"升级为"可管理、可观测、可持续运行的运行环境"。 LangChain CEO Harrison Chase提出"你的Harness决定你的记忆"理念,主张Agent记忆层与Harness解耦。Superagentic AI等机构进一步提出自优化/自修复Harness——将提示词、工具模式、检索设置、内存架构整体视为优化目标,通过执行追踪自动修复故障,使系统在模型切换或环境变化时不会崩溃。 这一年,多模态Agent与自我进化系统持续深化,视觉、语言、执行能力边界不断融合。模型能力趋于收敛,Agentic Workflow与Harness工程化成为竞争核心,人类迈向AGI的探索进入全新阶段。
2025【全球大模型竞赛与Agent全面成熟】
- Agentic Workflow全面成熟
— Agent自主调用工具、制定计划、执行任务;多智能体协作(SubAgent)与技能(SKILL)编排成为复杂系统的标配,工作流(workflow)工程化框架趋于稳定。 - 1月
,DeepSeek-R1发布 — 深度求索发布开源推理模型,以强化学习为核心训练范式,匹敌OpenAI o1水平,被《自然》称为"中国AI的斯普特尼克时刻"。 - 2月
,Grok 3发布 — xAI用20万张H100训练,多项基准超越GPT-4o。 - 3月
,Manus发布 — 由中国团队Monica.im研发的通用AI Agent产品正式问世,采用多智能体协作架构,在GAIA基准测试中取得SOTA成绩。它标志着AI Agent从"技术实验"迈向"工程化产品落地",Agent的角色从提供建议转变为直接交付完整任务成果。 - 5月
,Claude 4系列发布 — Anthropic发布Opus 4与Sonnet 4,支持100万token上下文,Agent工具调用能力大幅提升。同月,Google发布Gemini 2.5 Pro,引入"深度思考"模式。 - 7月
,Kimi K2发布 — 月之暗面发布并开源Kimi K2,定位Agentic思考模型。 - 8月
,GPT-5发布 — OpenAI推出首个融合推理与快速响应的旗舰模型,向所有用户免费开放。 - 11月
,Gemini 3发布 — 一经推出便引发轰动,整合了深度推理、原生多模态理解和智能体(Agent)能力这三大核心能力,并在发布后两周内横扫了20项主流模型基准测试中的19项第一。标志着谷歌在AI领域的强势回归。 - 12月
,DeepSeek-V3.2发布 — 面向Agent场景将推理与工具调用深度融合。 AI从"被动回答"走向"主动执行",人类角色从操作者逐步转变为监督者。
2023-2024【Agent启蒙与工程化落地】
- 2023
,GPT-4发布 — AI迈入"生产力工具"元年,展示了逻辑推理与初步多模态能力。 同期,OpenAI推出Function Calling能力,使模型可直接调用搜索(Search)等外部工具;自主Agent原型AutoGPT引爆AI应用想象,工作流(Workflow)编排需求浮现。 - 2024
,视频生成模型百花齐放;Agent从实验走向工程化落地;Anthropic发布MCP(模型上下文协议),统一AI与外部工具的标准连接方式。
2017-2023【发展大爆炸】
- 2017
,Transformer架构横空出世 — Google发表《Attention Is All You Need》,彻底摒弃循环结构(RNN),以自注意力机制实现对全局上下文(context)的并行建模。这一架构改写了NLP规则,成为所有大模型(LLM)的模板。 - 2018
,预训练大语言模型(LLM)BERT与GPT-1问世 — BERT通过双向上下文建模重新定义NLP任务范式,GPT-1验证了生成式预训练路线。AI从此进入"预训练+微调"时代。 - 2019
,GPT-2发布 — 因"太危险不宜公开"的争议声明引发全球关注,其强大的文本生成能力让世界首次正视大模型的潜力与风险。 - 2020
,RAG(检索增强生成)框架提出 — 首次将搜索(Search)与语言模型的生成能力深度融合,通过检索外部知识库大幅减少事实错误与幻觉问题。 - 2021
,Codex与GitHub Copilot发布 — 将LLM能力扩展到程序代码生成,Function Calling的自动工具调用思想初见雏形。 - 2022
,ChatGPT(GPT-3.5)发布 — 两个月内用户破亿。提示工程(prompt)伴随模型规模的涌现能力而兴起,人类首次大规模体验对话式AI。 同年,LangChain框架诞生,为LLM应用抽象出记忆(memory)、链、Agent等核心组件,加速AI应用开发落地。
2012-2017【深度学习全面爆发】
- 2012
,AlexNet — 深度卷积神经网络 — 辛顿团队在ImageNet竞赛中以压倒性优势击败所有传统方法,GPU训练成为标配,神经网络在视觉处理领域全面爆发。这一年被视为深度学习革命的分水岭。 - 2013
,Word2Vec提出 — 首次将词语映射为稠密向量,捕捉语义关系(国王-男人+女人=王后)。为后续模型的语义理解和上下文(context)建模提供了基础工具。 - 2014
,生成对抗网络(GAN) — 伊恩·古德费洛提出"生成器vs判别器"的左右脑互搏训练机制,使AI首次具备"创造"逼真图像的能力。 - 2014
,Seq2Seq与注意力机制初现 — 序列到序列模型为机器翻译带来突破,注意力机制的雏形诞生。 - 2015
,ResNet残差网络 — 通过残差连接突破网络深度的物理极限(最深达152层),注意力机制开始在视觉和NLP领域获得更多关注。 - 2016
,AlphaGo击败李世石 — 深度学习+强化学习+蒙特卡洛树搜索的结合震惊世界,AI在公认最复杂的棋盘游戏中超越人类。
1994-2011【深度学习的潜伏期】
- 1997
,IBM深蓝击败国际象棋世界冠军 — 卡斯帕罗夫输给一台计算机,展示了搜索算法与专用硬件结合的巨大威力。但深蓝依赖的是暴力搜索而非学习能力。 - 1998
,LeNet-5诞生 — 杨立昆等人提出经典卷积神经网络架构,首次定义了卷积层+池化层+全连接层的标准网络结构,在手写数字识别上取得成功。 - 2006
,深度学习元年 — 杰弗里·辛顿提出"逐层预训练"方法,通过无监督学习逐层初始化权重,终于克服了深层网络难以训练的瓶颈。AI正式进入深度学习时代。 - 2007
,CUDA发布 — 英伟达推出GPU通用计算平台,为日后深度学习的算力需求埋下关键伏笔。 - 2009
,ImageNet数据集发布 — 李飞飞团队构建了包含上千万张标注图像的超大规模数据集,为后续视觉模型的突破提供了数据基础。
1980-1993【0-1的基础储备】
- 1980
,专家系统商用化 — XCON/R1等系统投入实际运行,将人类专家的领域知识编码为"如果-那么"规则库,使AI在医疗、地质、制造等垂直领域落地,证明了知识工程的实用价值。 - 1982
,霍普菲尔德网络 — 约翰·霍普菲尔德提出新型循环神经网络模型,重新点燃了神经网络的研究热情。 - 1986
,反向传播算法(Backpropagation) — 辛顿、鲁梅哈特、威廉姆斯发表里程碑式论文,系统性地解决了多层神经网络如何训练的数学难题。这一算法成为此后所有深度学习模型训练的通用地基。 - 1987-1993
,第二次AI寒冬 — 专家系统维护成本过高、LISP专用机器市场崩溃、日本第五代计算机项目落空,AI经历第二次低谷。但连接主义的研究已在暗处积聚力量。
1956-1979【符号主义的黄金时代与第一次寒冬】
- 1956
,人工智能概念提出 — 达特茅斯会议正式确立AI为一门独立学科,"人工智能"一词诞生。 - 1957
,感知机(Perceptron) — 弗兰克·罗森布拉特发明了可学习的单层神经网络,能够进行简单的模式分类。它是现代神经网络和深度学习的源头,也是深度学习中人工神经元的原型。 - 1958
,LISP语言诞生 — 约翰·麦卡锡发明了AI历史上最重要的编程语言,成为此后数十年符号主义AI系统的核心工具。 - 1964
,ELIZA初版演示 — 约瑟夫·魏岑鲍姆开发了基于规则匹配的模式系统,虽无真正的"理解"能力,但通过脚本预设了任务执行逻辑的早期雏形。 - 1966
,ELIZA正式发布 — 世界上第一个聊天机器人问世,其中扮演心理治疗师的脚本令人惊讶地沉浸。它开启了自然语言处理(NLP)与人机对话的研究方向。 - 1969
,《感知机》出版 — 马文·明斯基和西摩·帕珀特从数学上证明单层感知机无法解决"异或"等非线性问题,直接导致神经网络研究进入第一个寒冬。 - 1974-1980
,第一次AI寒冬 — 计算能力严重不足、早期承诺落空、经费大幅削减,AI研究陷入低谷。但基础理论仍在暗流涌动中积累。
1950-1955【黎明前夜:思想火种】
- 1950
,图灵测试 — 艾伦·图灵提出划时代标准:如果一台机器能通过对话误导人类,使其无法分辨对方是人还是机器,那么它就具备了"智能"。这一思想奠定了自然语言交互与对话系统的终极目标。 - 1951
,SNARC随机神经网络模拟器 — 马文·明斯基搭建了世界上第一台硬件神经网络模拟器,首次尝试模仿生物神经元结构构建机器,是神经网络的物理雏形。
夜雨聆风