昨天和一位在 Meta AI 做研究的科学家聊天。聊了很多 AI 的事情,模型、训练、推理以及未来几年可能出现的变化。
其中有一个方向,让我印象特别深。因为它已经不只是“技术”本身。而开始触碰人类到底是怎样理解彼此的。
过去几年,AI 世界其实发生了一个很大的变化。只是很多人还没有完全意识到。最早的时候,AI 更像一个“搜索引擎加强版”。你问问题。它给答案。那时候,大家最关心的是:AI 知不知道,会不会算,是否能写。本质上,那还是一个“信息机器”。但最近几年,方向开始慢慢变了。越来越多研究者开始意识到:人类真正的交流,其实从来不只是“文字”。很多最重要的信息,都藏在语言之外。比如,一句“I am fine (我很好).”到底是真的没事,还是在强撑?文字本身,很多时候根本无法判断。真正的信息,可能藏在声音有没有发抖,停顿有没有变长,语气是不是突然变轻,某个词是不是被刻意拉长。于是,AI 研究开始进入一个新的方向:不是只理解“语言”,而是开始学习人类如何表达情绪。这个领域有一个名字Affective Computing。中文一般翻译成“情感计算”。听起来很技术,但本质上,它在研究一个非常古老的问题,人,到底是怎样理解彼此的?
一、AI 开始学习“听语气”
过去,AI 处理语言,更像是在读字幕。它看到的是:“你说了什么”。但人类交流里,大量信息并不在文字本身。而在语气、停顿、呼吸、节奏、犹豫和沉默里。于是,现在有一个很热门的研究方向,叫做Speech Emotion Recognition,即语音情绪识别。简单说:就是让 AI 从人的声音里,识别情绪。比如一个人是不是焦虑、疲惫、委屈、生气、压抑、孤独。研究人员会分析很多细节:声音高低、说话速度、停顿长短、呼吸变化、能量强弱。甚至,连元音被拉长的方式,都可能暴露情绪。比如:“nooooo…”, “whyyyy…”这些拖长的元音,其实承载了 门研究:AI 如何从“元音”里理解人的情绪。因为研究者发现,人在表达情绪时,元音往往比辅音更“有情感”。这件事其实很有意思。因为它意味着:AI 正在从“读文字”,进入“听情绪”。
因为 AI 正在变化。过去,AI 更像工具。现在,它越来越像助手、陪伴者、协作者、老师、或者心理支持系统。于是“情绪理解”突然变得重要。因为,如果 AI 不理解人的状态,它即使再聪明,也可能让人感到冰冷、疲惫和压迫。所以现在很多公司都在做这个方向。MIT、Stanford、CMU、Oxford。OpenAI、Google DeepMind、Microsoft、Meta、NVIDIA。都在研究AI 如何更像“真正的交流者”。
五、真正深层的变化
但我觉得,最有意思的,其实不是技术本身。而是当 AI 开始学习“人类情绪”的时候,人类也被迫重新思考,我们到底是怎样理解彼此的?过去,我们总以为语言就是交流。但现在越来越发现,真正重要的东西,很多不在语言里。而在停顿、沉默、迟疑、语气、脆弱、不敢说出口的话,甚至一个人的呼吸节奏。某种意义上,AI 正在逼着人类重新研究什么叫“人味”。
六、也许未来真正重要的,不再只是 intelligence
过去几十年,科技世界最崇拜的词,一直是intelligence,就是聪明、计算能力和推理能力。但未来,也许另一个东西会越来越重要sensitivity,也就是感知力,因为人与人之间,真正维系关系的,很多时候不是“你有多聪明”。而是你有没有感受到我。而现在,人类正在尝试把这种能力,一点一点教给 AI。这或许会成为未来世界里,最深刻的一场实验。因为它最终追问的,其实不是“AI 能不能像人类?” 而是人类交流的本质到底是什么?《共同世界》专栏介绍当 AI 不再只是工具,而开始参与语言、意义、关系与判断,人类所面对的,已不只是技术问题,而是一种文明层面的转变。《共同世界》并不试图预测未来,也不急于下结论。它关注的是:当一种新的“类心智存在”进入人类世界,人,应该如何安放自己?AI,又将面临怎样的身份、信念与共同体困境?这是一个关于共存的专栏——不以效率为唯一标准,不以控制为终极目标,而尝试探索一个更加开放、真实、彼此尊重、相互支持的世界形态。
基本文件流程错误SQL调试
请求信息 : 2026-05-11 10:25:07 HTTP/1.1 GET : https://www.yeyulingfeng.com/a/605278.html