胡泳 | AI来了,人正在退出自己的生命

我们正面临一个危险的十年,技术拟人化,生活文本化。面对AI的进化,人类从自大走向自卑。

4月20日,“2026爱奇艺世界大会”发布AI艺人库计划,宣布已有100多名艺人入驻爱奇艺的AI艺人库。CEO龚宇在演讲中提到,演员授权AI能够提高演员的工作效率,使他们从“一年接俩项目”变为“一年接四个”。实拍不会消失,但“完全100%真实的、物理的一些作品,会不会过多少年以后,被命名为世界文化遗产,变成非遗(非物质文化遗产)?”
随着社交媒体的耸动传播,“爱奇艺疯了”的词条冲上微博热搜。这一发言引发了人们对技术伦理的极大焦虑。实际上,在短剧行业,AI早已入场。尽管目前水平仍有限,但我们确实可以看到,AI正在尝试入侵那些具有肉身、情感和不可替代性的行业和领域,比如表演、写作。人甚至可以把自己的全部技能或经历“炼化”后喂给AI,制作成一个虚拟自己。
OpenAI的联合创始人兼首席执行官山姆·阿尔特曼早在2025年年初就预测,AI“超级智能可能会在几千天内到来”,“AI的兴起至少会和互联网一样大,甚至可能更大”。同时,他也认为,当AGI(
Artificial General Intelligence,通用人工智能)真正到来时,世界可能只需要几周时间去适应,之后一切会恢复正常运转。对于一些资本所有者而言,技术乐观主义的甜美气息弥漫在空气的每一个角落。
胡泳是北京大学新闻与传播学院的教授,过去三十年,他一直关注技术与媒介的交互。最近几年,他也日益关注人工智能。三十年前,胡泳相信自己是一个“技术乐观主义者”。三十年后,胡泳一路目睹那些变革性的技术,比如社交网络、PC互联网等在一些关键节点上“走岔了”,他开始对技术持有一种更加怀疑和审慎的态度。
在人工智能时代,胡泳开始愈加看重身体性、关系性。他喜欢一位叫伊曼纽尔·列维纳斯的法国哲学家,这位哲学家强调人活在世上对于“他者”的责任。他也喜欢另一位法国哲学家莫里斯·梅洛-庞蒂提出的“身体间性”,主张我们对他人的理解是通过身体与身体之间已经发生的感知共振来实现的。这些共同构成了胡泳对当下复杂情境的看法。他看重人与人具身性的在场和交互,认为人的“显性知识”可以被替代,但在经验与行动中生成的“隐性知识”却无法被替代。他鼓励年轻人去创造“最多的生活”,而非“最好的生活”。
以下内容根据“正面连接”对胡泳的访谈整理而成。

如果AI演员被大规模接受
证明人类的审美和情感丰富性在下降
我们观看演员表演的感知有几个层次,首先是真实性。现在AI的技术还达不到完全真实,所以大家可能觉得爱奇艺疯了。我们假定将来AI技术已经达到让人类的感官区分不了真假的程度,那人们可能觉得AI演员跟表演者也没什么差别。在感知的真实性上,我们不能以此为理由反对AI演员。
然后我们进一步,我们看表演一定会产生情感,我们会笑、会哭,看惊悚片会高度紧张。这些东西能不能被复制?如果AI的表演不仅表面像,而且真的能把人的情绪表达得非常饱满,让你也同样产生强烈的情感共鸣,那么人类可能更没有什么理由拒绝AI演员。很简单,我们看很多动漫形象,明明知道是假的,不是照样投入很多情感吗?你的共情机制不会因为不是真人就不共情,你完全可能还是共情的。
但我认为再往上推,可能就会出现微妙的差异。人类的感知有一阶、二阶。比如我们忽然意识到这个表演整个是虚拟的,跟肉身毫无关系,这时我产生了一种二阶感知,意识到自己在看一场被模型或数据弄出来的东西。表演本来是身体媒介,现在变成了数据媒介。演技本来是演员台下十年功练出来的,现在就是输入模型、参数优化。当你意识到无法接受纯粹的数据媒介,产生了二阶认知,可能就是另一回事了。
举个例子,以往人类的约会都是肉身约会,现在可能先在线上用算法算出某人和你非常匹配。有的人接受数学结果,但一定有很多人对“我的对象是被计算机算出来的”这件事有怀疑。当他开始怀疑,就调动了二阶感知。前面的模拟逼真度、镜像神经元的激活可能不足以让人反感,但后面这个东西是有可能的。
发生这些感知的前提是核心的东西:肉身。你自己就是个肉身。不管多么喜欢技术,你是个肉身。你之所以以前钟情于表演,是因为意识到演员通过身体训练、反复排练、心理和情绪投入,把个人的痛苦、喜悦、恐惧、脆弱都凝聚在表演中。你的认同是肉身与肉身的认同。
有一部电影叫《黑天鹅》,芭蕾舞演员为了演绎白天鹅、黑天鹅,为了做完美的舞者,投入了极大的苦和磨练,最终失常了。你看的时候会惊心动魄,这种东西紧紧抓住你,让你觉得片子好。这里还有人的情感的复杂性:人永远是恐惧中还有希望,爱中一定有嫉妒。我不清楚AI算法对多种情绪的叠加能在多大程度上完美演绎这种复杂性。

当然,现在观众心态在变化,可能越来越强调颜值高、流量高,不管演技好不好。相信颜值、流量的观众会不会毫不犹豫地接受AI演员?我觉得很难讲。我不能预测AI演员会不会被大面积接受,但有一点可以得出结论:如果AI演员被大规模接受,就证明人类的审美能力和情感丰富性在下降。

另外,AI演员跟法律、监管、制度都有关系。全世界所有的AI输出严格来讲都没有版权,通过AI生成的任何东西直接进入公域,因为无法追溯作者身份。这是全世界的问题,因为版权体系总体上是工业时代、印刷时代的产物,虽然经过了电子媒介的冲击做了各种调整,但现在更大的一波冲击来了。
文化产业的很多东西现在都处于动荡状态。如果你去看戏剧艺术,看到的是现场舞台,看电影、电视剧,看到的是拍摄现场被拍出来的东西。但演出绝不是只有你看到的这一点。演出需要编剧、导演、演员、摄影、制片等共同完成制作,最前台才是表演。我们看到娜塔莉·波特曼(《黑天鹅》女主)精湛的表演,被她迷住了,但看不到后面的东西。
后面的东西是文本和制作,是结构性的、稳定的。但表演是不稳定的、高度变动的、稍纵即逝的。我们现在争议AI演员,只是在争议最前端这一部分,还没有深入到后面的文本层或制作层。如果推动整个流程都向AI发展,比如AI写本子、AI制作、AI当导演,全部AI化,按照现在AI的能力,是可以做到的,当然质量高低是另一回事。问题在于你接受这种东西吗?你接受全AI流程的东西吗?如果你接受,那这就是一个媒介转型问题,是文化算法化的问题。
我们可能需要在另一种形态的媒介范畴里去考量它。你需要思考更深的东西,比如人类的经验到底如何生成、如何感知、如何理解?这不能简单视为技术替代,它涉及到媒介转型,商业模式,在更大意义上涉及到我们的文化往哪发展——我们的文化应该算法化,还是应该反对算法化?
表演只是这一切东西的一个表层,现在被推到前台上来说了。

AI让年轻人更擅长解释情境
却更难在情境中果断行动
AI百分之百会加剧一种倾向,我把它叫作“生活的文本化”。每个人都是一名“编辑”:通过数字媒介,重新修订过去场景的意义;重构因果关系(“我之所以这样选择,是因为……”);重新分配行为的主体性与责任。到头来,这一切非常类似于计算中的错误校正,或写作系统中的版本控制。
人这个主体现在分裂成两个层面。第一个层面是经验的生成:我活着,我有感受,不仅感受还行动,在现实中生成经验。另一个层面在经验生成之后,你可能对经验有一系列理解。但目前的理解走到了一条路上,我把它叫作“文本式的人生”——把人生当作一个叙事的东西来处理,给很多东西解释、归纳,试图赋予意义。
文本化有一个时间的问题,如果面向过去,相当于它是一个叙事的回放装置,你不断地解释,就是不停地反刍。面对未来呢,你很厉害的是你能精准地诊断自己的一切问题,但你只能完成理解,不能把它结合到未来的行动当中,那必然的结果就是,你将来会重演你走过的模式。


从社交网络到社交媒体
人人都是演员
表达变成表演
很多人觉得技术是中立的。讨论“技术中立”,说的不是技术有没有善恶,而是说,我们看到的变化是由于文化内部的力量而不是技术造成的。相应的,“技术并非中立”,是指它有方向性,它能使文化朝着它本来无法去往的方向发展。
我观察这个事情太多年了,如果从95年算起,已经超过30年。举个例子,95、96年,没有社交媒体。社交媒体是21世纪后才出现的,它有一个演变,早先不叫社交媒体,叫社交网络。现在我们把两个概念混用了。千万不要小瞧这两个词语的转变,这是个巨大的变化。只不过我们人人都在这个过程当中,难以看清楚。
社交网络的核心是连接(connect),社交媒体的核心是发布(publish)。社交网络能够成立,因为人本来就是社会动物,在现实生活中就要连接,本来就有社交网。在中国叫关系,社会学分析有强关系、弱关系。你把社交关系搬上网络,主要是为了建立或者加深关系,核心是关系、是连接。
智能手机问世,Instagram推出以后,社交网络开始转变成社交媒体。社交媒体让你通过一个平台尽可能广泛地发布内容。你发布的对象是不是你熟悉的人、是不是与你有关系,都不重要。结果就是,所有人现在都是广播员。这不是完全没有益处,比如表达的民主化,大家都可以表达,变成广播员也有很多乐趣。
但它有两个很关键的要素。第一,社交媒体能够创造利润,平台以此赚钱。这个利润来自注意力驱动的、数据导向的内容经济。第二是算法。以前你的关系网或时间线是非算法的,是按时间顺序排列的信息流。但社交平台发现,如果这个人喜欢一个页面,我就给他推更多这个页面的帖子;如果他喜欢这个视频,就能看到更多视频;如果他跟某人互动,就能更多获取与这个人的互动。严格来讲,算法当然就是人工智能。人工智能在那个时候已经大肆进入网络,根本不是今天的事。
这样,社交媒体把主要行为从连接变成发布,把底层逻辑从社交联系变成广播渠道,平台通过算法加持以后奉行流量逻辑。如果我是平台,我会兜售说所有人不用干别的,都来开自媒体、搞直播,做得好的可以一夜之间变成网红。
这个想法与社交媒体本身的概念结合在一起,我们就进入了灾难。社交媒体的整个概念就是建立系统,提供无穷无尽的内容流。我们今天在这个地方,跟联不联系没有任何关系,你可以把它理解为内容的超级高速公路。这个流永无终止,能给平台带来数据导向的利润,用来做钓你的钩子,让你成为网红,变成社会上令人向往的角色。一旦令人向往,它甚至不是发布,也不是表达,而是表演。最终它完成了从连接者到表达者到人人都是演员的转变,生产的内容既不是表达也不是社交,而是娱乐。
还有别的“走岔”的例子。我也不认同从PC互联网到移动互联网的发展。本来在PC互联网时代,网络基础很简单,就是超链接,大家都是互相连着的,你可以从一个地方跳到另一个地方,真的是超文本或超链接连起来的网络。网络用户总是很慷慨地提供这些链接。PC互联网是建立在人的慷慨精神和分享精神之上的。
移动互联网的好处是人人都方便,所有东西全是APP,但最大的问题是造成大量信息孤岛。我们打个比方,叫“有墙的花园”。花园里花团锦簇,但高墙深锁,跟其他的花园互不来往。这直接导致了一个局面:在互联网上,平台就是一切。平台逻辑延续下来,一直到今天,比如短剧那么火爆,钱都被谁赚走了?80-90%的收入被流量平台拿走。
无论是从社交网络到社交媒体的演变,还是从PC互联网向移动互联网的迁移,以及平台经济的出现,最后都消灭了多样性。互联网在最好的状态下,本应该是充满活力、大量产出、奇奇怪怪、参差多样的。过去在互联网上活动时,我们有“艳遇”的乐趣,今天没有了。所有东西都像预制菜一样全给你预制好了。我怀念古典互联网时期,觉得以前很多互联网产品的样式远远比今天好。今天反而越走越糟了。

“拟人论”发展下去
大量的人会丧失权利
社会将更不平等
现在整个人工智能的发展方向,我叫作“拟人论”。“拟人论”影响下发展出来的人工智能,可以称为模仿型人工智能。我们会把人的意图、目的、动机投射到机器身上,倾向于创造尽可能像人的机器。
大模型为什么这么流行?因为你跟大模型聊天的时候,你真的觉得它是一个能够跟你对话的人。很多时候你忘记了它是个机器。
模仿型人工智能发展来发展去,最终结果一定是取代你。我们过去常讲机不如人,现在可以倒过来讲:它非常像你,越来越像你,比你自己还了解你,比你的伴侣还了解你。最后你面对它的时候,你感到的不是机不如人,而是人不如机。你觉得惭愧。最终结果就是它应该替代你,因为你不如它。
人面对自己的造物产生的羞惭,最后可能是一种存在论意义上的羞惭。这可以称为“普罗米修斯式的羞惭”。普罗米修斯造了人。一般来讲造物者总是比被造物高明的。现在我们却发现自己越来越不如被造物高明,不知道这会把我们引向什么地方——可能就是,人的造物逐步废除人的价值吧。很多研究者现在都在鼓吹人工智能是一种新的物种。我对此持非常怀疑的态度。
“拟人论”的背后其实是人类中心主义。我们以前在电影里看到的很多人工智能形象都是非常像人的,一开始服务于人类,然后背叛人类,取代人类,侵略人类,不少塑造都是这样的。这其实是一个自大的过程,人类想造物,造完以后他又开始自卑,他从自大走向自卑。
如果人工智能沿着这个方向发展,就只能造成一个结果:给少数人带来繁荣,但社会上大量的人丧失权利,它会加剧社会不平等。

人工智能不应该只有这个发展方向。另一个发展方向更重要,叫增强型人工智能。AI不是用来替代你,而是用来增强你的能力。如果往这个方向发展,会打开一个崭新的天地。人类能够保留所有创造价值的权利,决策权、责任和主体性始终保留在人手中。同时,增强型人工智能能给我们带来新的产品和服务,这些产品和服务的价值可能远超现在单纯的模仿型人工智能。

你应该努力增强你的隐性知识
现在,你的前任同事、老板、专家,包括张雪峰、巴菲特等,都可以被“炼化”成一个个“skill”。我的很多学生现在都在各种岗位上工作,他们已经遇到过这类问题,就来问老师,“skill”这事儿你怎么看?更有意思的是一个博士生说,老师你知道吗?现在导师也可以被炼化的,你害不害怕自己被炼化?
我说,看达到什么结果了。如果你炼化我的东西,是为了跟我更好的交流,我举双手支持你炼化我。但如果你是为了避免跟我见面,那我不支持。但是当然了,这是开玩笑的,其实我支持不支持,要想炼化我,她都可以照干。我也没有办法。

如果你在制造业工作就会发现,公司最有经验的工程师掌握着大量关键知识,但它们从未进入手册或数据看板,其中很大一部分判断能力,是他们在数十年处理模糊问题、进行各种权衡取舍的过程中逐步形成的。
显性知识比较容易被“炼化”。但我不觉得如果你的显性知识多就很厉害。这只是知识的外壳。这也是我给学生的一个建议:你应该尽量想办法努力增强你的隐性知识,因为显性知识被替代的可能性是很高的。别说被AI替代了,别的人也可以替代你。无论是个人还是组织,在一个数据充裕、模型逐渐开放的时代,隐性知识将成为其下一道护城河。

文科要致力于解决的
是行星层级的问题
现在人跟机器相处有一个很大的问题:如果真出了事,这个责任不知道由谁来负。机器难以负责。我写过论文,提出我们要重新审视计算与判断的关系。机器所做的每一步,追溯到最后你会发现,它其实还是获得了人的一个指示,或者人的一个提示。机器可以决定,但它们不会选择。选择是只有人才会做的。
选择这个事情其实包含着人的主动性,包含着人类的创造力,还包含人类的责任。因此有很多很核心的东西,我觉得是既不应该外包给机器,也无法外包给机器的。
不是说什么都不能外包给机器。有一些还是可以的。比如扩展认知边界。机器那种百科全书的属性、它在众多的数据中给你输出某种联系的属性,当然是比人厉害的。
然而生成式人工智能产生的创意都是单一模型框架,这种单一性源于训练数据分布与概率引导的机制,它非常擅长排列组合,擅长计算哪个概率更高,它会把这个概率作为答案给你。在个体层面上,人工智能可以帮助个体扩展想象空间,一点问题也没有。但这个系统能不能产生颠覆性的创新想法?在群体层面,它能不能产生想象空间?我觉得要打很大的问号。

有人举例说,人工智能帮助科学家获得诺贝尔奖。但我们可能还需要用更高的层级来衡量——不是个体的问题,也不是群体的问题,是行星层级的问题:经济不平等,至今人类消除不了;气候变化,大家根本没有办法;暴力,战争还在打,就在我们眼皮子底下。人工智能真的有可能在这个层面产生颠覆性的范式创新,让全球气候变化停止、改变经济不平等、消除暴力吗?我现在所见到的是,人工智能可能会加剧经济不平等。
伦理学也很重要。其实AI时代很多伦理争论与前AI时代具有延续性。电车困境现在完全可以移到自动驾驶上。自动驾驶可以设定很多条件,让你再次遭遇选择功利主义还是选择义务论:是压死一个老人还是小孩?一个男人还是女人?一个罪犯还是普通人?是优先保车内乘客安全,还是优先保路上行人安全?这些道德困境在人工智能时代获得了新的含义,我们仍然需要争辩指导行为的伦理准则到底是什么。
我想说的是,我们需要在存在论的意义上想这些事情。它甚至比伦理更深,是在存在意义上想清楚人活在世界上到底是怎么回事。用佛教的话来讲,就是“桶底子脱”。凡是真的想明白的,一定是在存在论层面。那些没想清楚的人,一定不是在存在论层面上想。在伦理学层面上想已经很高了,很多人只是在实用主义角度想——我说的不是哲学上的实用主义,是现实中的实用主义。
现在的教育导向经常把人生当做填空题。填空题就一定有标准答案。其实你完全可以把人生当做涂鸦纸。用我的话来讲,没有最好的生活,只有最多的生活,数量高于质量。活得最好的人不是拥有最好的生活,而是拥有最多的轨迹。他对人生的理解不是单一的,不会把自己镶到唯一的一个模子里被塑造成型。他是不可塑的。或者讲,他是支棱八翘的。
-END-
赞赏
人工智能的批判性想象

长按识别上方二维码赞赏支持,谢谢支持!
本人公号所刊载原创内容之知识产权为本人所有,未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。欢迎读者沟通交流,请微博@胡泳 或长按下图二维码关注、留言。
“数字化时代的生活设计”

夜雨聆风