
斯坦福大学2026年AI Index显示,生成式AI在三年内覆盖了全球53%的人口,速度超过个人电脑和互联网的同期扩散。AI公司的营收增速打破了所有技术浪潮的纪录,同时也在烧掉数千亿美元建设数据中心和芯片。我们正生活在人类历史上最大规模的技术基建狂潮之中。
大语言模型:中美并驾齐驱。美国一侧,ChatGPT、Claude、Grok支持百万级上下文和多模态理解;中国一侧,竞争同样白热化。DeepSeek凭借极低训练成本和开源策略震撼全球(Marc Andreessen称其为「AI领域的Sputnik时刻」),GitHub标星超10万,API价格仅为OpenAI的1/10。字节跳动旗下的豆包月活用户过亿,日均Token消耗超50万亿,凭借与抖音、今日头条的生态整合成为中国调用量最大的大模型。Kimi以200万Token超长上下文能力在长文档处理上碾压同级,金融分析师和研究生群体成为其核心用户。阿里通义千问和腾讯元宝则分别深耕企业级应用和微信生态。斯坦福AI Index显示,截至2026年3月,中美模型性能差距已缩窄至2.7%。
Vibe Coding与AI Agent:软件开发方式正在被重写。2026年,GitHub上超过51%的提交代码由AI生成或深度辅助。Andrej Karpathy发明了「vibe coding」一词(被Collins词典评为2025年度词汇),但他自己在今年4月已宣布进入下一阶段——用AI构建自动维护的知识Wiki,而非写代码。在工具层面,Cursor以$20亿ARR成为最主流的AI代码编辑器;Lovable让非技术创始人用自然语言在一小时内从想法走到可部署的MVP;Bolt.new凭借浏览器内全栈开发实现零配置启动,ARR达$4000万;v0(Vercel)专注于生成高质量React/Tailwind组件;Claude Code在SWE-bench上以80.8%的得分成为专业工程师中使用最多的AI编码工具。中国这边,OpenClaw作为开源AI自动化框架,支持多种大模型后端,被知乎评为中国AI生态的「基建派」代表。整个2026年的AI Agent景观地图上,138种以上工具覆盖了AI IDE、全栈构建器、终端Agent、规范驱动Agent等七大品类。
垂直领域AI同样在加速渗透。金融领域,Kimi和文心一言被广泛用于财报分析和研报精读,华泰证券等机构已接入豆包;数据分析Agent如Tellius实现了自然语言转SQL和根因自动调查;营销自动化平台(Ruh AI、n8n、Zapier)让Agent可以自主研究内容缺口并生成优化文案;多Agent协作框架如CrewAI和LangChain支持角色分工和工具链集成。量化投资领域,AI辅助策略回测和信号生成已成常态。
然而,所有这些工具——无论中国还是美国,无论是大模型、vibe coding工具还是垂直Agent——共同点是:它们都是效率优化器。它们减少重复劳动、提升产出速度,却没有一个产品的设计初衷是帮助用户获得更多的目的感、社会认可或自主权。Elon Musk在X上宣称xAI的目标是「培育人性、将意识带向星辰」,但Grok的实际功能仍以生产力为核心。Yann LeCun反复批评当前LLM范式是「通往人类水平AI的死胡同」——Agent虽实用,却远未触及真正的智能自主性,更不用说人类的尊严需求。
市场的逻辑很诚实:投资回报率(ROI)可以量化,而「尊严」无法写进商业计划书。
第一重原因是商业驱动。Sam Altman在X上承认AI将带来「经济巨变」和「新型威胁」,OpenAI基金会投入10亿美元应对生物威胁与就业冲击。但GPT系列产品仍优先服务付费企业用户,目标是「让公司用AI管理代理团队」。利润逻辑下,AI优化成本、减少人力,却没有内置任何「尊严保障」机制。学者Bankins与Formosa指出,AI对「有意义工作」的伦理影响被系统性忽视了——自动化取代重复任务,却未补偿由此失去的自主性与目的感。
第二重原因是技术局限。当前Agent依赖人类监督和提示工程,缺乏内在动机和价值判断。Musk半开玩笑地说未来AI可能评价人类「作为人类来说还行」——这暗示了一个尴尬的前景:当智商被超越后,人类的定位是什么?普通用户的声音更直接:X上一位名为The Mind Scourge的用户写道,「工作是日常的治理层,AI取代后,人失去责任感,社会功能失调。」疫情期间「无工作世界」的短暂实验已经证明,大多数人在失去外在结构后容易陷入消费主义和空虚。
更深层的原因在于社会结构。IMF报告指出,近40%的全球工作岗位面临AI影响,发达经济体这一比例高达60%。2025年美国约5.5万个岗位裁员直接归因于AI。但问题不仅在于失业——工作赋予人身份、日程、社会连接。正如Georgetown大学经济尊严实验室创始人Gene Sperling所说,工资是「自豪与尊严的前提条件」。AI可能解放人类于重复劳动,但如果分配机制不变,「解放」就变成了「抛弃」。
世界经济论坛的分析提出了一个新概念:「AI不安定阶层」(AI precariat)。他们认为,AI造成的不仅是就业危机,更是一场全球性的「职业身份危机」——当你的技能过时、你的角色被替代、你的日常结构瓦解,你面对的不只是经济问题,而是「我是谁」的存在性拷问。现有的AI产品没有一个在回答这个问题。
「尊严」并非现代发明。古罗马的西塞罗在《论义务》中首次系统阐述dignitas——人类作为理性生物的内在高贵,区别于动物。但将其提升为现代核心概念的是康德:在《道德形而上学基础》中,他主张人拥有「内在价值」(dignity)而非「价格」(price)——人永远是目的,不是手段。
二战后,1948年《世界人权宣言》第一条写下:「人人生而自由,在尊严和权利上一律平等。」尊严成为国际法的基石。在中国语境下,它与儒家的「仁」和「以人为本」相呼应——个体在集体中的价值与被尊重权。
当代理解中,尊严包含三个维度:自治(自主决策的能力)、意义(追求目的感的生活)、认可(被社会视为平等主体)。这三个维度恰好是AI最容易侵蚀的。Bates College的研究发现,当AI取代创造性劳动时,自主性丧失就等于尊严受损。Diplo的分析更尖锐:工作提供的不仅是收入,还有身份——我们认识新人时问的第一个问题就是「你做什么工作」。当这个问题失去意义时,人类的社会结构会发生什么?
Anthropic本月邀请基督教领袖讨论Claude是否是「上帝的孩子」,以及如何让它具有道德判断力。这件事的深层荒诞在于:我们正在给机器寻找灵魂,却忘了先保护使用它的人的尊严。
斯坦福2026 AI Index中一个令人不安的数据:Humanity's Last Exam——由各领域顶级专家出题、被设计为人类认知的终极测试——最强AI模型的准确率已经超过50%。仅一年前,最好的模型只做对了8.8%。Demis Hassabis说AGI的到来将像「十次工业革命压缩进一个十年」。如果认知能力成为衡量价值的唯一标尺,那么AI超越人类智力的那一刻,就是人类价值归零的那一刻。
Karpathy观察到编程工作正在从「手写代码」转向「管理Agent」——抽象层级不断上升,人类退居监督角色。他的Autoresearch项目让AI Agent在自主循环中运行训练实验,人类只需要定义目标。这是进步,也是预警:当底层工作全部自动化后,人类剩下的只有「品味」和「判断」——而这两样东西恰恰是AI学得最快的。
X上一位名为Joshua Charles的用户写道:「AI让思想本身不再'生产性'——这是对人之为人的打击。」Yuval Harari和Anton Korinek警告的「无用阶级」正在从预言变为数据:2025年,美国近5.5万个岗位因AI裁撤;斯坦福CS毕业生15年来首次面临严峻就业市场。IMF数据显示,AI高度渗透的地区,对AI脆弱岗位的就业水平在五年后低了3.6%。
Musk诉OpenAI案的核心问题,从另一个角度触及了同一困境:当「为全人类」的承诺可以被估值为$8520亿的IPO,「全人类」中的每一个普通人得到了什么?
AI并非宿命。但扭转方向需要的不是更好的产品设计,而是社会结构的根本性改革。
Georgetown大学的Gene Sperling提出了「经济尊严契约」框架,核心主张包括:创造「双重尊严工作」(既提供经济保障又提供社会价值的岗位)、建立不中立的政策导向——激励企业选择「AI增强人类」而非「AI替代人类」、设立经济尊严底线确保所有工作者的基本体面。他引用亚当·斯密的话:工资应当足以让劳动者「以与一般人性相称的方式养育家庭」。
IMF建议各国投资终身学习体系,培养与AI互补而非竞争的技能——芬兰、爱尔兰和丹麦在技能准备指数上领先全球。世界经济论坛提出建立「不安定阶层实验室」:政府、企业和公民社会的跨部门中心,为AI就业风险人群整合心理健康、再培训和社区建设资源。他们甚至建议将UBI重新设计为「目的导向型」——不仅保障收入,还通过公民项目、创造活动和技能分享网络恢复意义感。
产品层面,需要一种范式转变:从「效率Agent」转向「尊严Agent」——不是帮你更快地完成任务,而是帮你发现值得完成的任务。AI可以辅助社区构建、支持集体决策、帮助个体探索内在志趣(Amartya Sen的能力路径),而不仅仅是自动化你的收件箱。UNESCO和欧盟伦理框架强调「人类在场」,应该被具体化为产品功能:每一个AI工具都应该内置「尊严影响评估」——它在节省你时间的同时,是否也在削减你的自主权?
Abeba Birhane批判「AI福利」概念的空洞——它往往服务强大机构而非脆弱个体。X上一位名为Derya Unutmaz的用户写道:「AI应服务于解放而非统治。」这句话简单到像标语,但它精确地指出了问题的核心:当前AI产品的设计方向,是让人们成为更高效的劳动单元,而不是更自由的人。
那个问外星人的问题:「你们是如何在不消灭自己的情况下熬过技术的青春期的?」答案不会来自更强的模型、更快的Agent或更高的benchmark分数。它只可能来自一个更基本的追问:这些工具,到底是在帮人活得更好,还是只是让少数人赚得更多?
康德说人有内在价值而非价格。但AI时代的悖论是:我们正在用一种没有任何价值观的技术,去重新定义人的价值。如果我们不在这个过程中主动设计尊严,它就会被效率默默吞噬。
夜雨聆风