
全文约10000字,建议开启聆听模式。欢迎持续关注我最新的思考。
2026 年 4 月的第二个星期,华尔街上出现了两幅看似无关的画面。
4 月 7 日,Anthropic 正式宣布了一个名为 Project Glasswing 的计划,向外界展示了一个代号 Mythos 的 AI 模型。这个模型在未经任何网络安全专项训练的情况下,自主发现了数千个主流操作系统和浏览器中的零日漏洞,其中包括一个在 FreeBSD 系统中潜藏了整整 27 年的历史缺陷。消息传出,网络安全板块应声暴跌,数十亿美元市值在几个交易日内蒸发殆尽。CrowdStrike、Palo Alto Networks 等安全巨头的股价遭到猛烈冲击。财政部长和银行高管紧急召开危机会议,讨论这项技术对金融基础设施的潜在威胁。
十天后的 4 月 17 日,同一家公司发布了另一款产品——Claude Design。它允许任何人用自然语言描述自己想要的界面,直接生成交互式原型、设计系统、幻灯片和营销物料。发布当天,占据 UI/UX 设计市场 80% 到 90% 份额的 Figma 股价暴跌约 7%。而在两个月前,Figma 刚刚推出了一个名为 Code to Canvas 的功能,专门将 Claude 生成的代码转化为 Figma 中的可编辑设计——那时它们还是合作伙伴。
两幅画面,同一个主角:Claude。
这两个事件单独来看,各自都足够震撼。但如果把它们放在一起观察,你会隐约感到一种更深层的结构性力量正在浮出水面。它不是某款产品对另一款产品的竞争,不是某家公司对另一家公司的冲击。它更像是一种地质运动——基础模型的能力在某些领域悄然越过了临界点,然后以一种近乎突然的方式,对整个软件行业的既有格局发起了系统性的冲击。
这篇文章试图探讨的,就是基础模型如何重构传统的软件世界——这场冲击可能遵循的路径,以及它可能抵达的边界。需要明确的是,基础模型本身也是软件的一种,只是它提供了全新的能力和人机交互方式,从而在底层重新定义了软件的结构、排布、机制。请注意:我们讨论的并不是“软件的终结”,而是软件形态的蜕变式进化。所谓“吞噬”的,不是软件本身,而是传统的、经典的软件世界。
第一个案例:Mythos 与网络安全的崩塌
要理解 Mythos 为什么能撼动一个成熟的、年产值数千亿美元的行业,我们需要先理解网络安全这件事在过去几十年是怎么运转的。
传统的网络安全工作,大量依赖人类专家的经验和耐心。渗透测试工程师需要逐行审计代码,在复杂的系统交互中寻找那些隐蔽的逻辑缺陷;漏洞研究员需要对操作系统内核、网络协议栈、浏览器引擎保持深入理解,然后在浩如烟海的代码库中发现那些被所有人遗漏的角落。这项工作的核心挑战,与其说是智力上的,不如说是规模上的——人类的大脑再聪明,面对数亿行代码的排查,时间和精力就是最硬的瓶颈。
这恰恰是 AI 可能拥有结构性优势的领域。
Mythos 做的事情,大致上可以被理解为一种超大规模的代码模式识别。那些零日漏洞——无论是缓冲区溢出、竞态条件还是权限绕过——在代码层面都呈现为某种可被识别的异常模式。这些模式被淹没在数十年来人类编写的代码海洋中,对人力排查而言效率极低,但对一个在海量代码上训练过的基础模型而言,寻找这些模式可能是它天然擅长的事情。
更值得注意的是,Mythos 并不是一个专为网络安全定制的模型。Anthropic 明确表示,它没有经过网络安全领域的专项微调,完全是凭借通用的代码理解能力、长上下文推理和智能体行为,在 CyberGym、SWE bench 等权威评测中实现了全面超越。这个细节非常关键——它意味着我们看到的可能不是“一个安全工具比另一个安全工具更好”,而是“通用智能在某些条件下碾压了专业工具”。
那么,这些条件是什么?
如果我们仔细观察网络安全这个领域,会发现它具备几个显著特征:第一,问题空间虽然庞大但边界相对清晰——漏洞要么存在,要么不存在,有客观的验证标准;第二,训练数据极其充裕——几十年的开源代码、CVE 漏洞库、安全研究论文都是现成的学习材料;第三,也是最关键的一点——人类在这个领域的瓶颈主要不在智力上,而在精力和效率上。一个顶尖的安全研究员完全有能力发现那个藏了 27 年的 FreeBSD 漏洞,但他没有时间把所有代码都审一遍。
换句话说,Mythos 在网络安全领域的突破,可能不是因为它“比人聪明”,而是因为它在这类需要大规模模式搜索的任务上,拥有人类无法企及的效率优势。在某些维度上,它与顶级人类专家的智力水平大致齐平,但它能以千百倍的速度和近乎为零的边际成本运行。在另一些维度上——比如同时理解数百万行代码之间的交互关系——它可能已经超越了单个人类的认知容量。
但这里需要保持清醒。Mythos 能找到漏洞,不代表它能设计出更安全的系统架构。“发现问题”和“解决问题”是两种截然不同的能力。正如 Fortune 采访的一位资深安全专家所说:问题不在于找到漏洞,而在于修复它们。真正的安全工作远不止于扫描和发现,它涉及系统性的架构思考、攻防博弈的战略判断、组织层面的流程设计。这些更高层次的工作,至少在目前,还不是 Mythos 能够胜任的。
这个观察非常重要,因为它揭示了一个关于 AI 吞噬路径的关键特征:吞噬不是全面的,而是分层的。即使在同一个领域内部,AI 也是先攻克那些 pattern 清晰、可以被高效验证的任务,然后才可能向更模糊、更开放的层次推进。
第二个案例:Claude Design 与 GUI 的消解
如果说 Mythos 展示的是 AI 在效率维度上的碾压,那么 Claude Design 展示的则是一种更为深刻的冲击——对交互范式本身的颠覆。
要理解这一点,我们需要回顾一下设计工具的演化历程。
最早的数字设计工作在 Photoshop 中完成。设计师操作的是像素——每一个图层、每一个蒙版、每一个渐变效果都需要手动控制。这是一种极其精细但也极其繁琐的工作方式。后来 Sketch 出现了,它引入了组件和样式的概念,设计师操作的不再是像素,而是可复用的设计元素。再后来 Figma 把这一切搬到了云端,加入了实时协作,让设计变成了团队运动。
从 Photoshop 到 Sketch 再到 Figma,每一次进化都做了同一件事:降低“我脑中的想法”到“屏幕上的结果”之间的摩擦。但无论怎么降低,有一个东西始终存在——图形用户界面(GUI)。设计师必须学会使用这个界面,掌握图层面板、组件库、原型链接等一整套操作逻辑。“会用 Figma”本身就是一种专业技能,一种准入门槛。
Claude Design 做的事情,不是在这条演化路线上又前进了一步,而是对这条路线本身提出了质疑。
当一个产品经理可以用一句话——“给我一个深色主题的仪表盘,左侧导航,右上角有通知图标和用户头像”——直接获得一个可交互的原型时,GUI 这个中间层还有多少存在的必要?当你可以上传自己的代码库和设计文件,让 AI 自动提取品牌色彩、字体和组件风格,然后在所有后续设计中保持一致时,设计系统的手动维护还有多大价值?
这里发生的事情,与 Mythos 冲击网络安全的机制完全不同。Mythos 是在人类擅长但做不过来的事情上提供了效率优势;Claude Design 则是绕开了人类建立的整套工作方式,直接用更自然的交互——对话——来完成同样的目标。
这种冲击的深层逻辑可能是这样的:GUI 之所以存在,是因为过去的计算机无法理解人类的意图。你不能对 Photoshop 说“把这张海报改得更有科技感”,你只能手动调整色调、替换字体、添加光效。GUI 是人类适应机器的产物——我们用机器能理解的方式(点击、拖拽、输入参数)来表达自己的意图。但当 AI 能够直接理解自然语言描述的意图时,这个中间翻译层就开始显得多余了。
当然,这种消解不会是彻底的、一夜之间的。专业设计师仍然需要精细控制——调整一个像素的间距、微调一条贝塞尔曲线、在两种几乎相同的蓝色之间做出选择。这些工作需要视觉感知的精密度,需要对美学的深层理解,短期内 AI 可能很难完全替代。但 Claude Design 真正打击的对象,不是专业设计师的最后一公里,而是设计工作的准入门槛。当“会用 Figma”不再是做出合格原型的前提条件时,设计软件的用户基础和商业模式都会被从根本上重构。
这里还有一个值得玩味的细节。Anthropic 的首席产品官 Mike Krieger 在 Claude Design 发布前三天,辞去了 Figma 的董事会席位。而就在两个月前,Figma 刚刚推出了 Code to Canvas 功能,专门将 Claude Code 生成的代码导入 Figma 进行编辑——这原本是一次友好的生态合作。但短短两个月后,Anthropic 就直接推出了竞品。
这个时间线折射出 AI 时代一个令人不安的现实:当你的生态合作伙伴就是基础模型提供商时,你的护城河可能正在为对方的进攻修建桥梁。Figma 集成 Claude,等于帮助 Claude 更好地理解了设计工作流;Lovable、Cursor 等工具依赖 Claude 的 API,等于把自己的命脉交到了一个随时可能变成竞争对手的公司手中。
齐平、胜出与范式:一个观察框架
把 Mythos 和 Claude Design 这两个案例放在一起,我们可以尝试归纳出基础模型冲击软件行业的几种不同模式。
第一种是“齐平型”冲击。 在编程领域,这种模式最为典型。AI 在代码编写上的能力可能已经与中高级工程师大致齐平——它理解语法,掌握常见的设计模式,能够正确实现明确定义的功能。规则和范式非常清晰,训练数据案例足够充分,这些条件让 AI 得以在智力层面追平人类。而一旦齐平,效率优势就成了碾压性的——AI 不需要休息,不需要开会,不需要上下文切换,成本只是人类工程师的零头。Claude Code 上线首年就创造了约 10 亿美元的年化收入,到最近已经推动 Anthropic 整体年化营收达到 300 亿美元。这个数字背后,是无数个“AI 写的代码和人差不多,但快十倍便宜百倍”的决策。
第二种是“胜出型”冲击。 Mythos 对网络安全的冲击属于这一类。在海量代码中搜索隐蔽漏洞这件事上,AI 可能已经不只是和人类齐平,而是在某些维度上超越了人类——不是因为它“更聪明”,而是因为它的认知容量和检索速度构成了一种人类无法比拟的结构性优势。当一个模型可以同时“阅读”数百万行代码并理解它们之间的交互关系时,它看到的 pattern 空间远大于任何人类个体。
第三种是“范式型”冲击。 Claude Design 对 Figma 的冲击就是典型案例。它不是在现有赛道上跑得更快,而是改变了赛道本身。从命令行到图形界面再到自然语言,每一次交互范式的跃迁都重新定义了“谁能做这件事”和“怎么做这件事”。当 AI 将 GUI 从必需品变成可选项时,围绕 GUI 构建的整个产业链——设计软件、设计教育、设计服务——都面临着釜底抽薪的威胁。
这三种模式当然不是泾渭分明的,更多的情况下它们交织在一起。但作为一个观察框架,它们帮助我们识别:在什么条件下,基础模型的涌现能力最有可能对特定软件领域形成类似“降维”的打击:毁灭你与你无关。
重构路径:观察到的几个维度
如果我们试图描绘基础模型重构传统软件世界的路径,有几个可以观察到的维度值得关注。
第一个维度是任务的确定性。 越确定的任务越早被基础模型重构。所谓“确定”,指的是输入输出有清晰的定义,结果有客观的验证标准,解题空间虽大但边界明确。代码能不能编译通过是确定的,漏洞存不存在是确定的,UI 组件符不符合设计规范是确定的。在这些确定性高的任务上,AI 可以快速学习、大量练习、自动验证,形成飞轮效应。而那些高度依赖主观判断、缺乏明确对错标准的任务——比如“这个产品方向对不对”、“这次品牌重塑成不成功”——则暂时还在基础模型的能力边界之外。
第二个维度是任务的密度。 或者说,同类任务在训练数据中出现的频率。AI 对写一个 REST API 接口得心应手,因为互联网上有无数个类似的例子。但设计一个全新的分布式共识算法?这种任务在整个人类历史上可能只发生过几十次,训练数据中几乎找不到直接对应的先例。从“海量重复”到“复杂单例”, AI 的优势递减。
第三个维度是能力层次。 在同一个领域内部,基础模型的重构是自下而上的:先是执行层(写代码、找漏洞、画界面),然后是判断层(技术选型、架构设计、方案评估),最后可能是创造层(产品定义、范式创新)。每上一层,所需要的 pattern 就更加模糊,所依赖的上下文就更加广泛,所涉及的权衡就更加复杂。
这个分层现象在编程领域尤为明显。Claude Code 可以出色地完成一个定义清晰的模块开发,但面对“要不要把这个单体应用拆成微服务”这种架构层面的决策,它目前还相当吃力。这不是因为它“不够聪明”,更可能是因为架构决策所依赖的 pattern——业务发展方向、团队能力边界、运维成本预期、技术债务的长期影响——远比代码层面的 pattern 更模糊、更开放、更难从训练数据中提炼。
第四个维度是协作的复杂度。 当前 AI 对生产力的提升主要体现在个人层面——一个工程师用 Claude Code 写代码更快了,一个产品经理用 Claude Design 做原型更方便了。但在团队协作层面,AI 的渗透还相当有限。如何围绕 AI 生成的设计稿进行多人评审?如何让 AI 参与到跨部门的需求讨论中?如何用 AI 协调一个分布式团队的工作优先级?这些问题不仅涉及技术能力,还涉及组织中的隐性知识、信任关系甚至权力结构——这些是最难被数字化、也最难被 AI 吸收的领域。
波次推演:正在发生的、即将到来的和高度不确定的
基于以上维度,我们可以粗略地勾勒出基础模型重构传统软件的几个可能波次。
第一波正在发生。 它攻击的是那些确定性高、数据密度大、处于执行层的任务。代码补全和简单模块开发是最典型的例子——GitHub Copilot 和 Claude Code 已经深度嵌入了开发者的日常工作流。漏洞扫描和标准化的安全审计正在被 Mythos 这样的模型改写规则。标准 UI 组件的生成、格式化文档的撰写、常规数据的整理和可视化,都处在这一波的攻击范围之内。这一波的特征是:初级岗位的需求开始下降,但高级从业者暂时感觉自己是安全的。
第二波已经能够观察到早期迹象。 Claude Design 对 Figma 的冲击就是一个信号——它不只是替代了执行层的设计工作,还开始触及“方案选择”和“风格判断”这样的半开放性任务。在编程领域,我们能看到 AI 开始尝试更复杂的代码审计和架构建议(Opus 4.7 新增的/ultrareview 命令就是一个例子)。在法律领域,Claude Cowork 已经开始替代合同审查软件的核心功能。在金融分析领域,Opus 4.7 在多项基准测试中“登顶公开模型”。这一波攻击的特征是:专业门槛开始被打破。过去需要数年积累才能做的判断,AI 可能用几秒钟就给出一个质量尚可的答案。中级专业岗位开始感受到压力。
第三波高度不确定。 它指向的是那些需要处理罕见任务、面对开放性问题、涉及创造层决策的领域:定义一个前所未有的产品形态、制定一家公司的五年战略、发明一种全新的编程范式。这些任务的 pattern 极度稀疏,上下文极度复杂,验证标准极度模糊。AI 能否攻克这一层,取决于基础模型能力的天花板到底在哪里——而这正是我们目前看不清楚的地方。
这里有一个关键的判断需要做出:这些波次之间的边界,是会稳定在某个位置形成动态平衡,还是会持续向上推移?
我倾向于后者。
原因很简单:到目前为止,基础模型的能力天花板还不够清晰。每隔几个月,就有一些之前被认为“AI 做不到”的事情被突破。Mythos 发现 27 年漏洞、Claude Design 生成交互原型,放在一年前都会被视为不可能。我们隐约感觉到天花板的存在——它可能与 transformer 架构的内在限制有关,比如长程推理、因果理解、持续学习——但我们并不知道这个天花板究竟有多高,更不知道下一代架构(如果出现的话)会把它推到哪里。
在这种“天花板不清晰”的状态下,任何关于“基础模型重构到这里就会停下”的判断都带有极大的不确定性。更审慎的推测可能是:重构会持续向上推进,速度可能忽快忽慢,但方向是确定的。今天看起来安全的层次,可能只是因为模型还没来得及攻到那里。
下一批可能被冲击的领域
如果上述 pattern 是成立的,我们可以尝试推测接下来哪些软件领域最容易被冲击。
法律文书审查和合同管理可能是近在眼前的目标。 这个领域的 pattern 清晰度相当高——法律语言高度结构化,合同条款有大量先例可循,偏离标准条款可以被清晰识别。Claude for Word 已经在做这件事了:它驻留在 Word 侧边栏,读取合同,用红色标记删除、绿色标记插入,将修改结果直接呈现在原生的修订窗格中。传统的合同审查 SaaS 正面临和 Figma 类似的处境。
财务审计和合规检查也具备相似的条件。 会计准则、税法规则高度结构化,审计工作中大量任务是交叉验证和异常检测——这些恰恰是 AI 擅长的海量数据模式匹配。
数据分析和 BI 工具可能面临 Claude Design 式的范式冲击。 从 Excel 到 Tableau 到 Power BI,数据可视化工具一直在降低“数据”到“洞察”之间的门槛。但只要 GUI 还在,用户就需要学习查询语言、理解图表类型、掌握筛选逻辑。当用户可以直接说“给我看上季度各区域销售趋势并标出异常值”然后获得完整的可视化报告时,Tableau 的图形界面和 Figma 的设计面板面临的是同一种命运。
初级医学诊断在技术上可能已经具备被冲击的条件, 但它会受到监管和社会信任的额外约束。这里有一个有趣的分化:并非所有的“吞噬”都是技术驱动的,有些领域的平衡点会被非技术因素——监管要求、责任归属、社会接受度——人为地固定在某个位置,至少在一段时间内。
这些推测当然可能是错的。实际的冲击可能以完全意想不到的方式、从完全意想不到的角落发起。但无论具体路径如何,一个趋势似乎是清晰的:那些建立在“功能复杂度”和“专业工作流”之上的软件护城河,正在被基础模型的通用能力系统性地侵蚀。如果非要寻找还可能成立的护城河,或许要看向数据网络效应(用户越多数据越有价值,且数据无法被模型直接复制)、监管壁垒(金融、医疗等高度受监管行业的合规要求)以及人类信任(某些决策场景中社会要求“有人负责”)。
快鱼吃慢鱼,还是鲸吞一切?
这场冲击让我想到一个有趣的对比。
互联网初期是一个典型的“快鱼吃慢鱼”时代。门户网站、搜索引擎、社交网络、电商平台——每个赛道上都有一群创业者在野蛮生长。速度是最大的竞争优势:谁先获取用户,谁先跑通商业模式,谁就能活下来。那些跑得最快的鱼,逐渐成长为平台,然后借助横向扩张,彼此边界不断叠加,最终覆盖了整个互联网市场。从搜索到广告到云计算的 Google,从电商到物流到支付的 Amazon,从社交到内容到虚拟现实的 Meta——这些巨头都是从一个细分领域的“快鱼”进化而来。
但 AI 时代的竞争格局似乎呈现出一种截然不同的结构。
在 AI 浪潮的初期,大量创业公司涌入各个垂直领域,试图用 AI 重做一切:AI 法律助手、AI 财务分析、AI 设计工具、AI 编程工具。它们确实在跑,也确实很快。Lovable 在 AI 设计和原型领域快速崛起,一度被视为这个赛道的领跑者。Cursor 在 AI 编程领域积累了大量用户。无数个“AI+垂直场景”的创业项目获得了融资。
但与互联网时代不同的是,这些“快鱼”的命运,并不完全掌握在自己手中。
它们的核心能力来自基础模型。Lovable 依赖 Claude 的 API 生成设计,Cursor 依赖 Claude 的能力做代码补全。这意味着一个根本性的脆弱:当基础模型提供商决定自己下场做应用时,这些“快鱼”几乎没有还手之力。Claude Design 一发布,Lovable 立刻宣布限免升级 Claude Opus 4.7——一种明显的恐慌式应对。Cursor 为了降低对 Anthropic 的依赖,开始接入中国的开源模型 Kimi K2.5——但这更像是在被困城堡中寻找暗道,而非正面迎战。
Anthropic 从 Claude Code 到 Claude Cowork 再到 Claude Design,正在系统性地展开一条“模型即平台”的路线。它不只是提供模型 API 让别人去做应用,而是自己直接做应用——而且是用同一个基础模型,在不同的垂直领域同时发力。Claude Code 覆盖编程,Claude Design 覆盖设计,Claude Cowork 覆盖企业工作流,Claude for Word 切入 Office 生态。当模型能力足够强时,应用层的独立价值就开始坍缩——你很难在一个别人拥有引擎的赛道上,靠轮胎和方向盘建立持久的竞争优势。就比如,过去无数挑战者在微软的Office家族阵前都铩羽而归,而不久的将来,Claude可能就会彻底隔离用户对Office的依赖。
这不是快鱼吃慢鱼。这更像是鲸吞——基础模型像一头不断生长的鲸鱼,随着能力的涌现,一口一口地吞下那些建立在它之上的应用层生态。
AI 时代的创业认知
这种“鲸吞”趋势,对 AI 时代的创业者提出了一个严峻的认知挑战。
互联网时代的创业信条是“天下武功,唯快不破”。先发优势、快速迭代、跑马圈地——这些策略在一个“谁先占领用户心智谁就赢”的时代是有效的。但在 AI 时代,一味追求快是远远不够的。
原因在于:你跑得再快,也很可能快不过基础模型的能力涌现。你花两年时间做出一个 AI 设计工具,基础模型提供商用两周就能推出一个更好的版本——因为它拥有你不可能拥有的东西:对模型能力的完全掌控和优先使用权。唯一的好消息,可能就是,没有人知道涌现的方向会在哪里先出现。
这不是说 AI 时代不需要创业,而是说创业的核心认知需要改变。我觉得至少有三个维度需要深入思考。
第一,深刻探寻基础模型的能与不能。 不是泛泛地了解“AI 现在能做什么”,而是精确地理解:在我选择的赛道上,基础模型目前能做到什么程度?它做不到的部分,是因为数据不足、架构限制,还是因为这类任务具有某种 AI 难以处理的结构性特征?前两者可能随时被突破,只有第三种才可能提供持久的壁垒——但即使是第三种,也需要不断重新评估。
第二,理解可能的演进路线。 不是预测“下一代模型会有什么功能”(这几乎不可能预测),而是理解吞噬的方向性和渐进性——它会从执行层向判断层推进,会从确定性任务向开放性任务推进,会从个人工具向团队协作推进。在这条路径上,你的创业项目处于什么位置?你选择的赛道,大概在第几波被冲击?你是否有足够的时间窗口来建立非模型能力的壁垒?
第三,思考创业项目进入和退出的商业闭环。 传统创业追求的是“做大做强”,但在 AI 时代,可能需要更加务实地思考:这个项目的合理生命周期是多长?在基础模型能力达到某个临界点之前,我能否完成从进入到回报的商业完整闭环?如果不能,我是否应该选择一个更上层的、更难被吞噬的切入点?
更重要的是,对以上三个维度的认知不是一次性的,而是需要保持持续、高频的迭代。基础模型的能力在快速演进,每一次重大更新都可能改写某个领域的竞争格局。创业者需要像运维工程师监控服务器一样,7×24 小时地监控基础模型的能力边界——因为它的每一次跃迁,都可能是你的机会,也可能是你的死刑。
从业者的困境与出路
这场变革对更广泛的从业者群体意味着什么?
最直觉的反应是去寻找“安全区”——找到那些 AI“做不到”的领域,在那里安顿下来。但如果“持续上移”的判断是对的,那么寻找固定的安全区可能是一种危险的幻觉。今天的安全区,可能只是吞噬浪潮还没到达的地方,而不是浪潮永远到不了的地方。
更务实的策略可能是:“持续上移”。不是找到一个固定的安全位置,而是始终保持向更高层次移动的能力和速度。
这意味着技能的重新定义。在编程领域,“会写代码”的价值在下降,但“会设计系统”——理解业务需求、做出架构权衡、预判技术演进——的价值在上升。在设计领域,“会用 Figma 画界面”的价值在下降,但“定义美学方向”——理解品牌调性、把握用户情感、创造独特的视觉语言——的价值在上升。在网络安全领域,“会做渗透测试”的价值在下降,但“会设计安全体系”——理解组织的攻击面、平衡安全性和可用性、制定应急响应策略——的价值在上升。
一个粗略但有用的判断标准可能是:如果你的工作可以被描述为“按照已知的规则处理已知类型的输入”,那你就处在吞噬的路径上。如果你的工作更多是“在不确定的条件下做出需要承担后果的判断”,那你暂时还有喘息的空间——但要记住,“暂时”这个词很重要。
还有一个常被忽略的维度:窗口期可能比我们想象的短。Mythos 从意外泄露到正式发布再到引发全球金融恐慌,前后不到两周。Claude Design 从传闻到发布到 Figma 股价暴跌,间隔不超过三天。这种冲击的速度,留给从业者的调整时间非常有限。等你观察到“自己的领域正在被吞噬”时,最佳的转型窗口可能已经关闭了。
一些我们还看不大清楚的事情
写到这里,我想诚实地承认:这篇文章中有大量的推测成分。我们观察到了一些现象,提炼了一些 pattern,做出了一些方向性的推演。但我们看到的更多是现象,而非机制。我们归纳的是结构的猜想,而非确定的规律。
有几个根本性的问题,我们目前还没有答案。
基础模型的能力天花板究竟在哪里? Transformer 架构有其理论上的限制——它更擅长模式识别而非因果推理,它的“理解”是否真的是理解还是高维的统计关联,这些问题在学术界仍有激烈争论。如果天花板比我们想象的低,那吞噬可能会在某个层次稳定下来,形成人机各擅其长的分工格局。如果天花板比我们想象的高——或者下一代架构突破了 transformer 的限制——那情况可能远比我们今天讨论的更加剧烈。
社会信任和制度约束会如何影响吞噬的速度和边界? 技术能力和社会接受度之间存在显著的时间差。AI 在医学诊断上可能已经达到了相当高的准确率,但让病人完全信任一个 AI 的诊断结果,可能还需要很长时间。监管机构对 AI 决策的态度——特别是在金融、医疗、法律等高风险领域——可能会人为地减缓吞噬的速度。但需要注意的是,这些制度约束更多是减速带,而非路障。历史上很少有技术进步被制度永久阻挡。
当“专业技能”都变成“常识”,专业的价值在哪里? 这是一个让我反复思考的问题。如果任何人都可以用自然语言生成一个合格的设计原型,那设计师的价值是什么?如果 AI 可以自动发现并修复绝大多数安全漏洞,那安全工程师的价值是什么?一种可能的回答是:专业的价值从“执行”上移到“判断”和“创造”——从“我会做”变成“我知道该做什么”再变成“我能定义什么值得做”。但如果吞噬持续上移,最终连“什么值得做”的判断也被 AI 覆盖呢?
这场革命的终局是“人机协作”还是“AI 独立”? 目前最普遍的叙事是“人机协作”——AI 负责执行,人类负责决策;AI 提供选项,人类做出选择。这个叙事让人感到安慰,但它可能预设了一个不一定成立的前提:人类在高层次决策上将始终优于 AI。如果这个前提不成立呢?如果持续上移是真的,那“人机协作”可能只是一个过渡阶段,而非终局。
我不知道这些问题的答案。也许答案取决于 transformer 的天花板在哪里,取决于下一代架构何时出现,取决于社会制度如何适应,取决于我们如何重新定义“人类独有的价值”。
但有一件事几乎是确定的:当一个基础模型——不是专用工具,不是垂直解决方案,而是一个通用的基础模型——在短短十天内先后让网络安全行业和设计工具行业感到地动山摇时,软件世界正在经历的,已经不是渐进式的优化,而是某种更深刻的结构性变迁。
这场变迁的终点在哪里,我们还看不清楚。但它的方向已经越来越明确。
而且,它正在加速。
夜雨聆风