当前时间: 2026-04-12 18:20:30
分类:办公文件
评论(0)
Ai时代,一个普通人的困惑与张望工位还空着,电脑还没开,楼道里飘着保洁阿姨拖地时特有的消毒水气味。我坐下来,打开电脑,却并没有开始处理我今天的工作任务,而是打开了文档,开始打字。我不太确定为什么选了这一天,也许只是因为这个念头在脑子里积累了太久,也许是我最近刚好在和同事有一些关于AI 哲学,生命的讨论,这些问题大约是:AI的发展未来会是怎样,如果把人一生的记忆蒸馏为一个模型,那这个具有这个人一生的记忆,性格,行为模式的大模型是这个人吗?人是活在与家人,朋友,同事等社会关系中的吗?还是仅仅从生物学上存活着就算活着,哪怕大脑一片虚无,那Ai未来是否能替代人继续活着?诸多想法与讨论到这个早晨刚好溢出来了,我想我不如正式的写点什么,那段时间,各种AI智能体在国内密集地爆发。小龙虾、Gemma,还有各种叫不上名字的多模态agent,一个接一个地刷屏。同事们在群里转,老板们在大会上讲,朋友圈里也充满了"AI要取代我们了"的焦虑,或是"根本没什么大不了"的不屑。我既不焦虑,也没有不屑,我只是有一种奇怪的感觉,像是在噪声很大的房间里,隐约听到了一个低频的声音,不知道它从哪里来,也不知道它在说什么,但你知道那个声音是真实的。——顺带一提,这篇文章也是用AI协助写成的。从周五早上开始动笔,写到周末才算完。我描述我的想法,AI帮我组织语言,我修改,再描述,再修改。我不确定最终呈现的文字里,哪些算是"我写的",哪些算是"AI写的"——这个边界同样模糊了。也许这本身,就是这篇文章想说的某种东西的一个小小注脚。
缘起:一个不会写代码的人,和他造出来的东西
我是做游戏美术设计的,从大学毕业到现在,也工作好几年了。在这些年里,"我不会写代码"是一个边界,一个我从来没有认真去挑战过的边界。不是因为懒,而是因为这个边界背后有一套完整的逻辑支撑:编程是需要系统学习的专业技能,它的门槛不是几天能翻过去的,而我已经有了自己的专业路径,美术和代码之间的分工,在这个行业里是天然成立的。最近这波vibe coding的浪潮让我有点好奇。我的工作日常里有一个长期的痛点:做完一稿设计,自己评估总是有盲区,找同事review效率低,而且人家也不一定每次都能给出有价值的反馈。我就想,能不能做一个工具,帮我从多个维度分析设计的优缺点,然后根据分析直接在图上进行修改,把修改后的结果直接呈现出来。我没有任何编程基础。我就对着AI聊天,描述我想要什么功能,它给我代码,我问它哪里出错了,它帮我改,我继续问。就这样来回几天,那个工具真的出来了。它能调用大模型的API直接分析图像,给出美术层面的专业反馈,并且根据反馈修改图,在界面里直接呈现修改结果。让我震撼的,倒不只是AI有多强大。让我震撼的是:我,一个毫无代码能力的人,通过聊天,造出了一个以前需要专业程序员才能造出来的东西。那条边界不是被专业训练消解的,它是被一场对话跨过去的。这件事在我脑子里打开了一个缺口。我开始想,如果这条边界可以这样轻易地被跨越,那么其他那些我以为是"专业门槛"的边界,又是什么?
那道墙塌了,但没有人发讣告
我在游戏美术行业做了好几年,这个行业有一套非常成熟的技术等级体系。原画、3D建模、材质、骨骼动画、特效——每一个方向都有自己的技术积累逻辑,通常需要三到五年才能从"能用"到"好用",再到"这个人有自己的风格"。在这套体系里,门槛是有意义的。它让认真积累的人有议价能力,让新人知道努力的方向,让整个行业保持了相对清晰的价值评估标准。但我现在做的那个工具,让一个没有任何专业美术训练的人,可以在几分钟内获得一份相当专业的设计分析报告,并且拿到一张基于这份报告的修改结果图。这不是在说AI的审美超过了专业美术设计师——它还没有,至少现在还没有在最高的创意层面超过。但它正在从底部开始蚕食这套等级体系。人类文明史上的内容创作,一直存在一道冷酷的门槛:不是"有没有想法",而是"能不能执行"。一个脑子里装着旷世画面的人,如果他的手不听使唤,那幅画就永远只能存在于脑海里,随着他的肉身一起腐烂。技术执行力,是创意世界里最残忍的筛选机制,它把人分成了"能表达的人"和"只能想象的人"。AI正在做的事情,不是降低这道门槛,而是把它夷为平地。Seeddance可以把自然语言描述变成具备工业级水准的视频;AI音乐工具让一个完全不懂乐理的人能在三十秒内生成一首商业水准的流行曲;Cursor让不会写代码的人可以用对话驱动软件开发——我亲身经历过这最后一个,我知道这不是夸张。这里有一个细节需要被认真对待,因为它的性质与历史上所有的技术革命都不同。工业革命时期,机器替代了人的肌肉,但它同时制造了新的需求:需要有人来操作机器、维修机器、管理机器。那是一种"替代加重组"的过程,被淘汰的工种和新诞生的工种之间,存在着相对连续的技能迁移路径。一个纺纱工经过培训,是可能成为机器操作工的。但AI替代的是认知执行本身。它不需要你来"开"它,它自己就能开自己。而且它在替代人的同时,并没有在同等规模上创造出新的、需要普通人来参与的任务。Klarna在2024年引入AI客服系统,一个月内的处理量相当于700名全职员工的工作,处理时间从11分钟缩短到2分钟,客户满意度持平,公司预计当年增加4000万美元利润。这是一个完美的商业故事。但700这个数字,不是一个抽象的效率指标,它是700个具体的人,700份具体的工资单,700个家庭的生计来源。我在游戏行业的感受是更切身的。公司最近开始要求我们在工作中使用AI工具,开会的时候有人说,"不要被时代进程落下"。这句话本身没有任何恶意,但我每次听到都会停顿一下。"被时代进程落下"——这句话的潜台词是:时代进程是一列已经开动的火车,你要自己爬上去,否则就是你的问题。但没有人问:这列车开往哪里?谁决定了它的方向?那些爬不上去的人,应该由谁来负责?
"完美"泛滥之后,稀缺的是什么
我大学毕业后在广州工作了一段时间,后来去东京待了两年,之后又回来了。两个城市的游戏美术行业,在工作性质上差别不大,但氛围很不同。广州更内卷,竞争的气味更浓,大家都在比谁产出快、谁能加班;东京压抑的方式不同,是一种更静水深流式的压抑,规则更多,表达更克制,但那种"我做的东西是有价值的"的信念,似乎比国内更稳固一些。我当时没有想明白这种差异从哪里来,现在回过头想,也许部分原因是日本的手工艺文化里,对"执行精度"有一种近乎偏执的尊重,一个动画师如果他的走路循环做得极其精准、极其有感觉,这件事本身就值得被认可,不需要更多的理由,哪怕这在商业逻辑上看起来并不划算。当任何人都可以以接近零的边际成本生成一幅精美的画、一首动听的曲、一段流畅的代码,"做得好"本身的稀缺性就消失了。供给无限,而人类的注意力是绝对有限的物理资源。按照注意力经济的基本逻辑,当一样东西从稀缺变成泛滥,它的价值就向零趋近。这意味着,AI生成的"完美内容"本身并不值钱——或者说,那种仅仅因为"技术执行精准"而具备的价值,在未来会急剧贬损。当内容以指数级速度涌来,当每个人每天面对的信息量是今天的一千倍,真正稀缺的能力变成了:谁能从这片汪洋里找出那些值得注意的东西?谁能为这些内容建立秩序和意义框架?谁能成为人们愿意信任的"眼睛"?这个能力,需要大量的知识积累、审美训练和判断力磨砺,它不是AI能替代的,但也绝不是普通人轻易就能具备的。技术层面的平等化,并没有带来认知层面的平等化,反而可能加速了认知层面的分化。表面上人人都能生产,但真正掌握话语权的,仍然是那些能够定义"什么值得被看"的少数人。第二,是人类瑕疵的溢价。
当所有的文章都有着完美的逻辑结构,当所有的画都符合黄金分割,当所有的音乐都节奏精准、和声无懈可击,人类会本能地渴望那些"不完美的真实"。这种渴望早就存在——人们愿意为黑胶唱片的底噪、胶片的颗粒感、手写信上的墨水晕染支付溢价,因为这些缺陷是"有人在场"的证明。在AI时代,这种溢价会被极端放大。一件留着创作者手汗、带着改动痕迹的原始手稿,可能会像稀世古董一样被珍视,因为它证明:这是一个碳基生命,在某个特定的时间和空间里,用他有限的肉体和不完美的心智,笨拙地创造出来的东西。它的价值不在于它有多好,而在于它有多真实。但这里有一个黑暗的转折:这种"真实性的稀缺"只会对少数人构成机会。绝大多数普通创作者,既没有能力跻身"策展人"的精英阶层,也不具备足够的历史地位让自己的"瑕疵"被赋予附加价值。技术门槛的消失,创造了一个表面人人平等、实质上更加残酷的竞技场。
理性的铁笼,以及那些无法被量化的东西
我用AI做了那个设计分析工具之后,有一段时间非常喜欢用它。它的分析准确、全面、不带情绪,不会因为不好意思说实话而绕弯子,也不会因为心情不好而给出偏颇的判断。但用了一段时间之后,我发现我开始有一种奇怪的依赖感,不是对工具的依赖,而是一种更隐蔽的东西:我开始在出图之前,先预判AI会说什么,然后把设计往那个方向靠。我在用AI的分析逻辑来提前框定自己的创作方向。我不确定这是好事还是坏事。它确实让我少走了弯路,但我同时感到,有什么东西在这个过程里被悄悄压缩了。社会学家马克斯·韦伯在一百多年前就预见到了这个问题的轮廓。他把现代社会的核心运行逻辑称为"工具理性"——用可量化的、可计算的方式来组织人类行动,以效率最大化为最高价值目标。他的忧虑是:当工具理性无限扩张,最终会建造一座"铁笼",把人类关在里面。亚马逊仓库的AI管理系统精确追踪工人每一次弯腰的时长,如果脱岗时间超过阈值,系统自动生成解雇指令,不需要任何人类主管的介入;Uber的动态定价算法把每一次人与人之间的出行需求,化简为期望收益的最大化计算;医疗AI在图像识别层面的准确率正在超过最有经验的放射科医生。在这些案例里,AI带来的是真实的效率提升,甚至在某些情况下,是真实的质量提升。我不想用廉价的情绪化方式去否定这些进步。但我想追问的是另一个问题:在那些效率被最大化的地方,有什么被最小化了?医生在告知患者坏消息时,会停顿,会观察对方的表情变化,会在某个时刻决定先不说那个最糟糕的情况,给对方一点缓冲的空间。这个过程里有大量"非最优"的成分——从信息传递效率的角度来说,一个AI系统可以在0.3秒内把所有的医学数据清楚地告知患者。但那0.3秒和那一整套充满摩擦的人类沟通之间,失去的是"共同在场"的感知——两个人类在一个共同的、脆弱的时刻,彼此认出对方。这种感知无法被量化,无法写进损失函数,但它是人类社会性的核心。更根本的问题是:当整个社会系统——从商业运营到公共服务,从医疗到教育,从司法到社会救助——都被AI的工具理性全面渗透时,那些无法被量化的人类价值,不只是被忽略,而是会逐渐失去生存的土壤。一个不被系统承认的东西,久而久之,连人类自己也会忘记它的存在。韦伯预言的铁笼,在他那个时代还只是一个隐喻。在AI时代,它正在被一根根焊死,而且焊接的人,是我们自己。
经济结构的断裂,以及一个无解的悖论
说到这里,我必须去想一些更宏观的经济问题。我并不具有专业的经济学知识,所有的认知大多源于在市场投资中的一点点摸索,但我认为这些问题直接关系到我这样的普通人的未来。现有的社会分配制度,无论是哪种形态的市场经济,其底层都建立在一个基础假设之上:劳动可以换取收入,你付出认知或体力的劳动,市场为这种劳动定价,你通过交换获得生存资料。这个逻辑运转了几百年,尽管充满不平等,但它作为一种社会整合机制,有其强大的合法性——因为它给了绝大多数人一种叙事:只要你肯付出,你就有获得的权利。如果大量的认知劳动可以由AI以接近零边际成本执行,那"脑力劳动的市场价格"就会向零趋近。如果具身智能机器人在未来十年内实现大规模商业化,那"体力劳动的市场价格"也会向零趋近。对于大量的普通人来说,"通过出售劳动力换取生活所需"这条路,正在系统性地变窄。当少数掌握AI的寡头实现了接近零边际成本的大规模生产,他们生产的海量廉价商品和服务,准备卖给谁?一个被系统性剥夺了收入来源的庞大人口,没有任何购买力。没有消费,资本的增值循环就会崩塌。这不只是贫富差距的问题,这是一个动摇了现代社会运行底层逻辑的结构性矛盾。IBM宣布暂停招聘约7800个可由AI替代的后台职位;硅谷的科技大厂在屡创新高的财报背后是连绵不绝的大裁员;法律行业的文件审阅、合规检查、初级研究开始大量被AI取代;银行业的后台运营、风险审核正在快速自动化。这些不是边缘行业的边缘岗位,这是中产阶级社会的支柱职业——那些教育投入大、曾经被认为最安全的职业。通常的回应是:没关系,新技术总会创造新的就业机会,每次工业革命都是这样过来的。这个论断在历史上是成立的。蒸汽机消灭了纺纱工,但创造了铁路工人;电气化消灭了马车夫,但创造了汽车工人。这些迁移是可能的,因为被替代的旧职业和新生的职业之间,存在着相对连续的技能迁移路径。但AI创造的新职业——神经网络工程师、数据科学家、大规模系统架构师——与它所替代的职业之间,存在着一道几乎无法逾越的技能鸿沟。一个做了十年文件审阅的律师助理,很难通过几年培训转型为大型语言模型的调优专家。这不是勤不勤劳的问题,是结构性的迁移困难。在这种背景下,分配制度的重构不是道德选择题,而是社会稳定的基础工程。全民基本收入(UBI)作为一个思路已经被讨论了多年,芬兰、肯尼亚等地的试点数据显示,它并没有导致人们停止工作,反而在精神健康和创业意愿上有正向影响。但UBI面对AI时代有几个深层矛盾尚未解决:钱从哪里来、跨国资本如何被征税、以及——这是最根本的——即便物质需求被满足,人的社会意义问题是否也能被解决。还有一个更激进的方向:既然生产力的核心正在从人的劳动转移到算力,也许分配制度的核心也应该围绕算力重构——国家为每个公民分配基础算力配额,作为参与经济活动的基础资源。这听起来很科幻,但它的内在逻辑是连贯的。无论最终形态是什么,有一点是清晰的:现有的以"按劳分配"为核心的分配逻辑,在AI大规模替代劳动的世界里是不可持续的。而这场制度性的重构,不会是温和的——历史上每一次分配逻辑的根本性重塑,都伴随着剧烈的社会冲突。
算力寡头化,以及它对政治的侵蚀
这里有一个问题需要被单独拎出来,因为它的危险性容易被低估。AI能力的发展,在技术层面存在极强的规模效应:更多的数据产生更好的模型,更好的模型吸引更多的用户,更多的用户产生更多的数据——这是一个自我强化的正反馈循环。在这个循环里,先行者的优势会随时间扩大,后来者的追赶成本呈指数级增长。在商业竞争层面,这意味着AI时代的科技行业,极有可能形成比互联网时代更彻底的"赢者通吃"格局。训练最先进模型所需的算力,不是一般公司甚至一般国家能够负担的。英伟达GPU的持续短缺,是算力稀缺性最直观的符号。在国际层面,AI的寡头化正在演化为新形态的地缘博弈。美国通过出口管制限制先进芯片流向中国,试图维持在AI基础设施层面的战略领先;中国加速自主可控的芯片研发路径;欧盟通过立法构建自己在AI治理层面的话语权。这不是单纯的商业竞争,而是一场关于未来核心生产力控制权的国家间博弈。民主制度有一个底层的物质基础:统治者需要维持足够多数人的支持,因为这些人是生产力的贡献者,也是潜在的反抗力量。这种相互依存,构成了权力的制衡机制。但如果AI使得统治者——无论是国家政权还是掌握AI霸权的科技寡头——不再需要大多数人的劳动,那"大多数人的支持"作为政治砝码的价值会发生什么变化?这不一定意味着暴力政变。它更可能是一种更温柔、更隐蔽的权力重组:通过对信息环境的塑造来引导公众认知,通过经济依赖关系来束缚政治选择,通过提供足够好的"奶头乐"来置换政治参与的意愿。当一小撮人掌握了绝大部分生产力,而绝大多数人在经济上是"可有可无"的,政治上的"多数人原则"就慢慢失去了它的物质基础。这是AI时代民主政治面对的最深刻的结构性威胁,也是最难被清晰感知的一种威胁,因为它不会以一场革命的形式到来,而是以一千次微小的、几乎不被察觉的让渡来完成。
"无用阶级",以及一段让人不寒而栗的历史
在所有我试图想明白的问题里,这一章最让我坐立不安,因为它连接着一段具体的历史,而历史的细节总比抽象的推论更有穿透力。人类几千年的文化叙事,核心之一是"劳动赋予生命以价值"。这个叙事渗透在几乎所有主要文明里:东方的"天道酬勤",儒家的修身齐家治国平天下;西方新教伦理里"世俗职业的勤勉劳作即是荣耀上帝的方式",韦伯称之为"天职"(Calling);马克思主义的核心叙事是工人阶级通过劳动创造价值、参与历史进程。这些叙事在意识形态上分歧极大,但有一个共同的底层预设:人类通过劳动与世界建立联结,通过劳动确认社会位置,通过劳动获得尊严。"我是谁"这个问题,在过去几个世纪里,很大程度上是通过"我做什么"来回答的。当AI接管了大量的认知劳动,而新诞生的岗位门槛高到普通人无论如何努力也无法企及,"我做什么"这个问题就开始没有答案。没有答案的后果,不只是贫穷——贫穷时,你至少还可以愤怒,可以把原因归结于制度的不公;但"无用"是另一种感觉,那是被系统的运行逻辑本身所排除,是一种找不到对象、无处安放的虚空。尤瓦尔·赫拉利在《未来简史》中把这个群体称为"无用阶级",不是说他们坏,而是说这个社会系统在运行时不再需要他们的贡献。一战结束后,德意志帝国崩溃,魏玛共和国在极度不稳定的状态下成立。超级通货膨胀、巨额战争赔款,以及1929年大萧条引发的大规模失业,到1932年,德国的失业人数超过600万。但历史学家在研究这段时期时注意到一件事:引发纳粹主义兴起的,不只是物质上的困苦——那时已经开始出现相对的经济回稳——而是弥漫在社会中的、无法被经济数据捕捉的集体性的屈辱感与价值丧失感。曾经骄傲的技术工人发现自己的技能无人问津;退伍老兵发现战场上积累的荣耀感在和平时期变成了负担;城市中产阶级看着毕生积蓄在通货膨胀中化为乌有,不是因为自己不努力,而是整个经济系统的运作逻辑变了,而他们被排除在外。正是这种"被系统性排除"的感受,产生了一种特殊的心理空洞。纳粹主义精准地填充了这个空洞——它提供的不首先是面包,而是一套重新赋予价值的叙事:你不是无用的,你是高贵的雅利安人;你不是被时代抛弃的,你是被阴谋迫害的;你不是社会的边缘人,你是将带领民族走向复兴的骄傲一员。这套叙事是虚假的、是反人类的、是灾难性的。但它之所以奏效,是因为它对准的那个心理需求是真实的——那个需要被看见、被需要、被赋予意义的人类本能,是真实的。当我想到一个社会里存在着大量衣食有保障(UBI解决了物质问题)、但在经济和社会功能层面找不到自己位置的人,当他们拥有大量空闲时间和旺盛的、无处安放的能量,当他们生活在被算法精准驱动的信息环境里,每天被推送那些能够激发情绪共鸣的内容——我想到了那段历史,然后我感到不安。这不是在画一条必然的轨迹,不是说UBI一定导致法西斯主义。我是在说:如果AI时代的社会设计只解决了物质分配问题,而没有认真对待"人的社会意义"问题,后果将是深重的。
温柔的囚笼:当娱乐成为管理工具
那些足够聪明的社会设计者,当然知道上面那个问题的解法。"奶头乐"的概念描述的逻辑并不新鲜:当社会存在大量"多余的人口",可以通过提供大量低成本的感官刺激和娱乐内容,让他们保持满足和平静,从而规避社会动荡。这个策略不是新发明的,但AI和脑机接口的技术进步,有可能让它实现到一种登峰造极的程度。想象一个具体的场景:一个在现实世界里"被社会系统认定为多余"的人,领着基本收入,住在廉价公寓里,每天戴上脑机接口头显,进入一个为他量身定制的沉浸式虚拟世界。在那个世界里,他是受人敬仰的领袖,他的决策改变着世界格局,他的能力被他人所需要,他经历成功和失败,每一次失败都被算法精心设计为成长的垫脚石。这和今天的游戏没有本质不同——它只是沉浸度和个性化精度的数量级跃迁。脑机接口触发的神经反应与真实体验几乎无法区分;实时读取神经信号的算法,知道你什么时候开始感到无聊,什么时候有了挫败感,然后实时调整,让你永远保持在最佳的沉迷状态。这和今天的游戏有一个根本性的区别:那个系统的设计目标不是让用户体验最好,而是让用户最不可能走出来,最不可能对现实产生不满。赫胥黎在《美丽新世界》里描述的,不是一个用恐惧统治的反乌托邦,而是一个用快乐统治的反乌托邦。与奥威尔的"老大哥"相比,它更难以被反抗,因为你找不到一个明确的压迫者——你只是很快乐。而这种快乐的代价,是对现实世界彻底的放弃,是人类集体创造力和历史动能的缓慢熄灭,是一种以文明安乐死的方式完成的终结。我问自己:我那个做了一个月的vibe coding工具,那个让我感到如此兴奋的东西,它是我主动扩展了自己的能力边界,还是我在不知不觉中,成为了某种更大的系统里的一个更顺从的节点?
当"共同的真实"开始瓦解
在这场变局里,还有一个层面我认为被严重低估了:AI对人类"共同认知基础"的侵蚀。民主社会的运作有一个基本前提:公民能够基于相对共同的事实基础,进行理性的公共讨论和政治判断。这不是说人人都要同意,而是说在讨论时,大家至少要在"什么是事实"这个层面上有基本共识。这个前提,在社交媒体时代已经开始受到冲击——算法驱动的信息茧房、情绪驱动的病毒式传播、有组织的虚假信息操纵,不能独立的新闻媒体,都在侵蚀公共认知的共同基础。但AI的到来,尤其是深度造假和AI内容生成技术的成熟,正在把这个问题推向临界点。当任何人都可以用AI生成高度逼真的视频、音频、图像,当一段领导人演讲视频可以在几分钟内被制作出来,当几乎无法与真实新闻区分的虚假报道可以被批量生产,"证据"作为公共讨论基础的作用就开始崩塌。第一种是对虚假内容的轻信。AI生成的高度逼真内容,可以被用来煽动仇恨、干预选举、制造冲突的导火索。第二种是对一切内容的普遍怀疑。当你知道任何内容都可能是AI造假的,你可能开始对一切都持怀疑态度,包括真实的证据。这会导致认知上的虚无主义——既然我无法判断什么是真的,不如根据直觉和情感来判断。而我的情感,恰好会被算法精准地引导。两种扭曲加在一起,会导致社会在认知层面的彻底碎裂:人们生活在各自的信息泡泡里,泡泡之间没有共同的事实基础,只有互相对立的叙事。在这样的社会里,理性的政治讨论变得不可能,因为讨论的前提——对基本事实的共识——已经不存在了。2016年以来,我们已经在多个民主国家的政治生态里看到了认知碎裂的冲击。那时候的工具还比较粗糙,主要靠人工操纵和算法加速的情绪极化。当这些工具被AI全面赋能,当制造大规模、高质量虚假信息的成本接近零,我们将面对的认知战争,将比我们已经经历过的任何阶段都更难以应对。"我们对世界的共同理解",将变得无比珍贵,同时也无比脆弱。而立场与情绪,终将取代客观事实,成为驱动世界的唯一动力。
"人是主体"——这句话的重量
我一直有一个信念,从很久以前就有,这次思考只是让它变得更加清晰了:人类文明和科技,是人类自己创造的。这个世界,应该以人类为主体。这不是一个乐观主义的陈述,也不是一个需要证明的命题——它更像是一个我选择站在上面的立场。有人会说这是人类中心主义。也许是。但即便从最功利的角度出发,这个立场也是成立的:AI是人类发明的,数据是人类产生的,算法是人类设计的,这一切技术进步的初始驱动力,是人类对更好生活的追求。如果这个工具的发展方向走向了损害人类整体福祉的结果,那这不是技术进步,这是目的和手段的倒置。问题在于,"人类"不是一个均质的整体,而是八十一亿个具体的个人,他们的利益在AI时代是深度分裂的——掌握算力的人和被算力替代的人,受益于AI效率的消费者和被AI取代的劳动者,用AI武装了自己的创作者和被AI洪水淹没的普通内容生产者。"以人为主体"这个原则,必须被追问:以哪些人为主体?谁来决定什么对人类有益?谁有权力在这些冲突的利益之间做裁量?这些问题没有抽象的答案,它们只能在具体的政治实践、制度设计和社会博弈中被一次次地回答。而我相信,这些问题只有在尽可能多的普通人参与讨论、能够发出声音的前提下,才有可能得到相对公正的答案。这恰恰又回到了上一章的问题:如果认知基础被侵蚀,如果大量的人被"奶头乐"系统所吸纳,如果政治参与的物质基础被算力寡头化所瓦解,如果我们对世界的共同认知基础被情绪和立场取代——那"以人为主体"就会变成一个空洞的口号,被那些早就想好了用这个口号来服务自身利益的人所使用。所以这个信念,需要被具体化、被落地、被制度性地保护,而不只是被宣称。
我们能做什么:不是答案,是方向
写到这里,我发现我没有办法给出任何真正意义上的解决方案。我想过未来应该是什么样的。技术治理应该更完善,分配制度应该被重构,教育应该转型,公共信息环境应该被保护——这些方向听起来都是对的,但"应该"和"会"之间,横着无数个我无法预测的变量:政治意志、资本博弈、技术的实际发展速度、人类集体行动能力的上限。我不知道这些问题最终会被怎样回答,也不知道那个回答会在多大程度上对普通人是公平的。我只知道一件事:这一切无论走向哪里,我都不想成为一个完全不理解它的人。不是为了不被淘汰——虽然这个现实压力是真实存在的——而是因为,一个我参与其中却完全看不懂的世界,会让我感到一种深层的、跟贫穷或失业都不同的失控感。我想尽量保持对这件事的理解,哪怕只是局部的、粗糙的理解。所以在我能做到的范围内,我会继续学习,继续去用,继续去折腾那些我以前认为跟我无关的工具。不是因为我相信这样就能找到答案,而是因为待在原地、等待别人替我决定,感觉更糟糕。这可能是一个很小的、甚至有点自我安慰性质的姿态。但对我来说,这是现在能做到的全部了。
尾声:AI的图标还在闪
这篇文章从周五早上开始,写到周末才算写完。严格来说,也不只是"我"写的——我描述想法,AI帮我组织语言,我再修改,再描述。就这样来回,最终有了这些文字。我想了很久,觉得这件事不需要藏。一篇讨论AI如何改变人类创作的文章,用AI协助完成——这个事实本身,比我在文章里写的任何论断都更直接地说明了某种东西:那道墙,真的塌了。连我自己也站在废墟上。那些"应该"——治理应该更完善,分配应该被重构,教育应该转型——我写下它们,同时清楚地知道"应该"和"会"之间横着多少我看不见的力量。技术的走向,资本的意志,政治的惰性,人类集体行动的上限——这些都不是我能预测的,更不是我能左右的。我只有一件事是确定的:我不想在完全不理解这件事的状态下,看着它把我的世界改头换面。所以我会继续学,继续用,继续折腾那些我以前觉得跟自己没关系的东西。不是因为相信这样就能找到答案,而是因为待在原地等着被定义,比不知道答案更让我难受。这是一个很小的姿态,我知道。但我想,如果有足够多的普通人选择保持清醒,而不是滑进那个温柔的虚拟深渊,这件事本身或许是有意义的。屏幕上,Gemini ChatGPT的光标还在闪,等待我的下一个输入。我关上这个文档,合上了电脑。广州今天是阴天,不算热,但有一种湿意黏在皮肤上,说不清楚。路上的人各有各的去处。我也要出去走走。
基本
文件
流程
错误
SQL
调试
- 请求信息 : 2026-04-12 18:39:03 HTTP/1.1 GET : https://www.yeyulingfeng.com/a/518586.html
- 运行时间 : 0.102889s [ 吞吐率:9.72req/s ] 内存消耗:4,852.26kb 文件加载:145
- 缓存信息 : 0 reads,0 writes
- 会话信息 : SESSION_ID=ddfc52bc48c0acacb8e50a259a9acd99
- CONNECT:[ UseTime:0.000562s ] mysql:host=127.0.0.1;port=3306;dbname=wenku;charset=utf8mb4
- SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.000685s ]
- SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000263s ]
- SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000270s ]
- SHOW FULL COLUMNS FROM `set` [ RunTime:0.000467s ]
- SELECT * FROM `set` [ RunTime:0.000580s ]
- SHOW FULL COLUMNS FROM `article` [ RunTime:0.000497s ]
- SELECT * FROM `article` WHERE `id` = 518586 LIMIT 1 [ RunTime:0.002127s ]
- UPDATE `article` SET `lasttime` = 1775990343 WHERE `id` = 518586 [ RunTime:0.001279s ]
- SELECT * FROM `fenlei` WHERE `id` = 64 LIMIT 1 [ RunTime:0.000228s ]
- SELECT * FROM `article` WHERE `id` < 518586 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.000410s ]
- SELECT * FROM `article` WHERE `id` > 518586 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.000368s ]
- SELECT * FROM `article` WHERE `id` < 518586 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.000737s ]
- SELECT * FROM `article` WHERE `id` < 518586 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.000746s ]
- SELECT * FROM `article` WHERE `id` < 518586 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.001809s ]
0.106945s