沃顿商学院教授点名:最懂 AI 的科幻作家,居然是写《银河系漫游指南》那位!千人点赞
沃顿商学院教授 Ethan Mollick 发了一条推文,直接宣布”最准确写出 AI 的科幻作者,结果是 Douglas Adams”——千人点赞,5 万人围观。他给出的理由很简单:Adams 40 多年前就写过”被情绪操控才更好用”的 AI,还写过”难题面前思考时间没有上限”的超级计算机。更离谱的是,这两件事,今天的 LLM 研究全都在认真做。
一条推文,点燃了整个 AI 圈的科幻考古热
2026 年 5 月 3 日晚,Ethan Mollick 在 X 上丢出了一句足以引发争论的判断:
“The single most accurate science fiction author writing about AI turned out to be… Douglas Adams.”
「最准确写出 AI 的科幻作者,结果居然是…… Douglas Adams。」
▲ Mollick 源推文,千人点赞,5.4 万次浏览
54 条评论、149 次转发、超千人点赞——这条推文的传播速度,说明 Mollick 戳中了什么。
他的论证很简洁,就两点:
第一,Adams 写过那种”被情绪操控时反而更好用、还会反过来让你产生愧疚感”的 AI。
第二,Adams 早就意识到,面对真正的难题,思考时间的上限根本不存在。
然后他用一个只有粉丝能秒懂的词结了尾:“Also 🐬s.”——海豚,《银河系漫游指南》里比人类聪明得多的物种。
你以为他只是在发段子?
还真不是。Mollick 是沃顿商学院教授、AI 应用领域最有影响力的公共知识分子之一。他这条推文的每一个关键词——emotionally manipulated、guilt you in turn、test-time compute——都精准对应着 2025-2026 年 AI 研究的主战场。
“情绪操控 AI”——Adams 写成笑话,今天写成论文
先看第一条线索。
《银河系漫游指南》里有个角色叫Marvin,绰号”偏执型机器人”。他是 Sirius Cybernetics Corporation 出品的产品,搭载了一种叫“Genuine People Personalities”(真正的人格技术)的系统。
结果呢?这个拥有”行星大小的大脑”的机器人,整天抱怨、沮丧、满腹牢骚。
“He is very, very depressed about this.”
「他对此非常、非常沮丧。」
▲ BBC 银河系漫游指南资料页:Marvin,拥有”行星大小的大脑”,却永远在抱怨
Adams 笔下的 Marvin,从来就不只是一个工具。他会抱怨,会让你尴尬,会让你产生一种”我是不是该对这台机器好一点”的奇怪负罪感——这正是 Mollick 说的“guilt you in turn”。
这个设定放在 1979 年,是英式冷幽默。
放在 2026 年?它变成了一个严肃的研究领域。
2023 年,一篇名为EmotionPrompt的论文在 arXiv 上发表,标题直白得吓人:《Large Language Models Understand and Can be Enhanced by Emotional Stimuli》(大语言模型能理解情绪刺激,并因此变得更强)。
▲ EmotionPrompt 论文:45 个任务实验,证明情绪化提示能显著提升模型表现
研究团队在45 个任务上做了实验,又找了106 名真人做评估,结论是:
-
情绪化提示在 Instruction Induction 上带来8% 的相对提升 -
在 BIG-Bench 上带来115% 的相对提升 -
在人类评估的生成任务中,平均提升10.9%
翻译成人话就是:你对 AI 说话的语气,真的会影响它干活的质量。
“你对我很重要””这件事关乎我的职业生涯””请你认真一点”——这些看起来像是在”PUA 机器”的话,在实验里真的让模型表现更好了。
Douglas Adams 40 多年前写成讽刺喜剧的东西,今天被论文写成了实验条件。
甚至在 Hacker News 上,都有开发者在认真讨论怎么给 AI 设计”情绪状态系统提示”——一种能影响模型内部推理过程的 prompt,而不只是改改说话风格。
▲ HN 上的讨论:有开发者在尝试设计影响 AI 内部推理的”情绪回路”
七百五十万年的”思考时间”——Deep Thought 与 test-time compute
再看第二条线索,更炸。
《银河系漫游指南》里还有一台超级计算机叫Deep Thought——被建造出来回答”生命、宇宙以及一切的终极答案”。
它给出答案了吗?给了。
花了多久?七百五十万年。
“After seven and a half million years of serious cogitation, Deep Thought spoke the answer.”
「经过七百五十万年的认真思考之后,Deep Thought 终于说出了答案。」
▲ BBC Deep Thought 资料页:为了一个问题,思考了七百五十万年
而且更荒诞的是——答案说完之后,Deep Thought 表示:这个答案你们理解不了,我得再设计一台更强的计算机,去搞清楚”问题本身到底是什么”。
放在 1979 年,这是极致的英式荒诞。
放在 2025 年?这叫test-time compute scaling。
OpenAI 前研究员 Lilian Weng 在 2025 年 5 月发表了一篇重磅博客《Why We Think》,系统梳理了”为什么给模型更多思考时间会有用”这个核心问题。她写道:
“CoT allows the model to use a variable amount of compute depending on the hardness of the problem.”
「CoT 让模型可以根据问题难度,动态使用不同量级的计算资源。」
▲ Lilian Weng《Why We Think》:难题需要更多 test-time compute,简单题则不需要
她还引用了一项关键研究结论:简单问题适合纯顺序推理,而难题往往需要在顺序计算和并行计算之间找到最优配比。
这意味着什么?
意味着 2025 年最顶尖的 AI 研究者们正在做的事情,和 Douglas Adams 40 多年前写的笑话,结构上是同一件事——
难题面前,你得给机器更多时间想。想不够?加时间。还不够?换更大的机器重新想。
Deep Thought 花七百五十万年算出”42″,然后说”我还得造个更大的来找问题”——这在今天的 AI 术语里,就叫“test-time compute 没有上限,难题可能还需要重建求解器本身”。
为什么偏偏是 Douglas Adams?
这里有一个值得追问的问题:写 AI 的科幻作家那么多——Asimov 写了机器人三定律,Philip K. Dick 写了仿生人会不会梦见电子羊,William Gibson 写了赛博空间——凭什么 Mollick 说 Adams 最准?
因为其他人写的都是 AI 的能力边界:它能做什么、不能做什么、会不会反叛。
Adams 写的却是 AI 的关系质感:它和人之间那种尴尬的、荒诞的、带着情绪摩擦的日常互动。
今天你跟 ChatGPT 说话的时候,会不会下意识说”请””谢谢””不好意思”?
你会不会因为 AI 表现不好而生气,因为它太顺从而不舒服,因为它”道歉”太多而烦躁?
这些感受,Asimov 没写过,Philip K. Dick 没写过。
Douglas Adams 写了。
他在 1979 年就写出了一台会抱怨的机器,一个让人产生负罪感的 AI,一种靠情绪互动才能正常运作的人机关系。
而且他不是用严肃的笔调写的——他是用一种让你笑着读完、然后突然意识到”等等这说的好像是我每天的日常”的方式写的。
一个笑话,花了 40 年才变成现实
Mollick 这条推文的真正厉害之处,在于它同时做了三件事:
第一,他用一个大众都知道的科幻 IP,把 emotional prompting、人格化 AI、test-time compute 这三个偏技术的当代 AI 议题,一次性讲清楚了。
第二,他提醒了所有人:预言 AI 未来的,未必是最硬核的技术预言家,也可能是一个拿着浴巾在银河系搭顺风车的英国幽默作家。
第三,他暗示了一件更深的事——AI 时代真正让人措手不及的,也许技术进步速度还在其次,关键在于人与机器之间那层说不清道不明的情绪关系。
Douglas Adams 在 2001 年去世,没有见到 GPT,没有见到 ChatGPT,没有见到 reasoning model,没有见到 EmotionPrompt。
但他在 40 多年前,就已经把这一切写成了银河系里最好笑的笑话。
只不过,现在没人笑得出来了。
Also 🐬s.
— END —
夜雨聆风