当地时间4月10日凌晨,旧金山的一栋住宅外墙起火:一名约 20 岁男子被指向 OpenAI CEO Sam Altman 的住所投掷燃烧瓶,点燃屋外大门,随后被警方拘捕。
这条新闻很容易被当成“科技圈的极端插曲”。
但它其实是一个提醒:当语言开始像电网一样重要,当一个对话框能影响教育、就业、舆论与权力分配——它就不再只是产品发布会上的 Demo。
它会走出屏幕,进入街区、进入制度、进入冲突。
今天,我们通过一本书来了解OpenAI的前世今生。

这本书最精彩的地方,不是爆料。
而是它告诉你一件事:ChatGPT(OpenAI 的旗舰产品接口) 不是一个产品。它是一套权力结构的接口。
你每一次输入问题,都是在给这套结构提供训练它、验证它、扩张它的理由。
所以你越常用它,越应该更清醒地用它:
别急着相信,先学会拆解。
我们以为自己在“和智能对话”。
实际上,我们在和一个由算力、资本、制度、供应链、话语权共同拼出来的系统对话。
真正改变你的人生的,不是工具本身,而是你对工具的世界观。
所以这篇书评不想再做一次“ChatGPT 有多强”的复读机。
接下来我会沿着书里那条暗线——帝国公式——把 ChatGPT 的前世今生拆成四个层级:
技术层:大模型到底是怎么从“会接话”变成“像在思考”。
产品层:为什么是 ChatGPT 点燃了大众,而不是更早的 GPT-3。
组织层:OpenAI 为什么从“非营利理想主义”走向“商业火箭”。
个人层:你我如何不当信徒,反而把它变成自己的杠杆。
如果你读完全书,再回头看 2022 年 11 月那次上线,你会意识到:那不是发布。
那是一次宗教传播。
很多人以为 ChatGPT 是突然出现的。
但它更像一条河流改道后的洪水——上游的水,早就蓄满了。
我把“前世”切成三次关键跃迁。
1.1 从“参数崇拜”到“规模信仰”
深度学习有一个让人上瘾的特性:
你不必完全理解它为什么有效。你只需要让它更大。
这不是玩笑。
书里反复出现的关键词是 scaling。
更大的数据、更长的训练、更密的 GPU 集群——像一套工业化祈祷仪式。
在这套信仰里,智能不是被“设计”出来的。
智能是被“堆”出来的。
这就是为什么 ChatGPT(OpenAI 的旗舰产品接口) 在 2020 年选择把 API 推出来,并明确写道:当时 API 使用的是 GPT-3 家族权重,以“text in, text out”的通用接口开放给外部(OpenAI,2020-06-11:OpenAI API)
https://openai.com/index/openai-api/
从那一刻起,语言模型不再只是论文。
它变成了可以被调用、被收费、被嵌入到别人的商业里的一种“基础设施”。
1.2 从“会续写”到“会听话”:InstructGPT/RLHF
GPT-3 的问题很朴素:
它很聪明,但它不在乎你要什么。
它只是按概率把下一个词吐出来。
于是 OpenAI 在 2022 年公开了一个关键路径:用 人类反馈强化学习(RLHF) 把模型“驯化”为更愿意遵循指令、更少胡编、更少有毒输出的版本(OpenAI,2022-01-27:Aligning language models to follow instructions)
https://openai.com/index/instruction-following/
这一步的意义,远大于“更好用”。
它把语言模型从“自动补全”推向了“助手”——一种可以被社会接受、可以进入工作流的角色。
换句话说:
规模给你智商,RLHF 给你人格。
而人格,决定了它能否成为大众产品。
1.3 从“模型”到“舞台”:对话框是新的操作系统
你可以把 ChatGPT 看成 GPT-3.5 + RLHF。
但那只是成分表。
真正让它爆炸的是形式:对话。
OpenAI 在发布公告里把这个“舞台”说得很直白:对话格式让模型能追问、认错、挑战前提、拒绝不当请求(OpenAI,2022-11-30:Introducing ChatGPT)
https://openai.com/index/chatgpt/
注意这里的主语。
不是“模型能完成任务”。
而是“模型能扮演一个社会角色”。
当你给 AI 一个对话框,你其实给了它一个新的身份:
不是搜索引擎
不是写作软件
不是编程工具
而是一个“你可以把意图倾倒进去”的对象。
这就是宗教传播的第一步:给人一个可以投射意义的容器。
很多技术都更早出现。
为什么是 ChatGPT 抢走了世界的注意力?
答案不是技术领先一代。
答案是它同时满足了三种欲望。
2.1 让普通人第一次“体验到智能”
以前的 AI,是给工程师的。
你需要 API、需要 prompt、需要容错。
ChatGPT 把门槛打碎:
打开网页,输入一句话,智能就回来了。
这是一种“即时回报”的心理机制。
像短视频。
像赌场。
像祈祷后听到回声。
2.2 让公司第一次“看见利润的形状”
企业不关心 AGI。
企业关心的是:
能不能少招 20% 客服
能不能把文档写作外包给机器
能不能把搜索变成对话
而 ChatGPT 的出现让这些想象变得具体。
这也是为什么书里写到:ChatGPT 爆火之后,行业规范迅速转向保密与竞赛,发布与商业化变成优先级,学术透明被挤到一边。
当竞争进入“生死局”,开放就会被重新定义为幼稚。
2.3 让 OpenAI 第一次“成为帝国而不只是实验室”
帝国需要什么?
叙事:让世界相信你代表未来
基础设施:让世界依赖你的算力与接口
治理结构:让你能在压力下继续加速
ChatGPT 不是终点。
它是 OpenAI 从“讲故事”进入“收税”的起点。
在 2015 年的成立公告里,OpenAI 把自己定义为非营利研究机构,目标是让数字智能以最可能造福全人类的方式发展(OpenAI,2015-12-11:Introducing OpenAI)
https://openai.com/index/introducing-openai/
但十年不到,一个组织如果真的踏上“规模化通往 AGI”的道路,它就会遭遇同一个现实:
你需要的不是理想。你需要电。你需要地。你需要钱。
而钱从来不会只买算力。
钱也会买方向盘。
为了避免神话叙事,我把几个可核验的关键节点摆在桌面上(仅选与本书主题最相关的官方节点):
2015-12-11:OpenAI 以非营利研究机构身份宣布成立(Introducing OpenAI)
https://openai.com/index/introducing-openai/
2020-06-11:OpenAI 发布 API,提供通用“text in, text out”接口,运行 GPT-3 家族权重(OpenAI API)
https://openai.com/index/openai-api/
2022-01-27:发布 InstructGPT/RLHF 相关成果:更会遵循指令、更少毒性与编造(Aligning language models to follow instructions)
https://openai.com/index/instruction-following/
2022-11-30:发布 ChatGPT(Introducing ChatGPT)
https://openai.com/index/chatgpt/
2023-03-14:发布 GPT-4 研究页面:多模态、基准测试提升,并强调“可预测扩展”与安全对齐(GPT‑4)
https://openai.com/index/gpt-4-research/
你会发现一个规律:
当一个系统开始影响越来越多人的“表达能力”,它就会不可避免地进入政治。
因为表达决定了:谁能被看见、谁能被雇佣、谁能说服他人、谁能获得资源。
所以当 ChatGPT 让“表达”变得廉价,真正昂贵的就变成了:观点的来源、证据的质量、以及人格的可信度。
每一次技术跃迁,都伴随着一次“控制权跃迁”。
2015:控制权在理想主义叙事(非营利)
2020:控制权开始通过 API 变成“平台税”
2022:控制权通过 RLHF 进入“人格/边界”的塑造
2022 末:控制权通过对话框进入大众心智
2023:控制权开始触及社会制度(监管、教育、媒体、劳工)
这也解释了书里那场“王座争夺战”为什么会发生。
因为当一个组织变成基础设施,权力斗争就不再是内部矛盾。
它会变成一场关于“谁代表人类未来”的战争。
如果你把本书当作八卦合集,你会错过它最值钱的部分。
作者其实一直在追问:
当一个技术组织拥有宗教叙事 + 工业供应链 + 平台接口,它会变成什么?
接下来我把书里的线索整理成一个更清晰的框架:
4.1 叙事:把不确定说成必然
“AGI 会治愈癌症、解决气候、带来丰裕。”
这类说法的作用不是预测。
它的作用是:
让投资人接受超长周期
让政府在监管上犹豫
让人才觉得自己在参与历史
让公众把不安转化为崇拜
叙事的本质是:把未来当作筹码。
4.2 资本:把速度变成道德
在传统公司里,增长是目标。
在“使命型组织”里,增长会被包装成道德义务:
如果我们不快,别人会先造出不安全的 AGI。
于是加速变成正义。
刹车变成背叛。
4.3 基础设施:把世界变成训练场
书里最刺痛的一点是:
“AI”经常被描述成一种无形的智慧。
但它的代价极其物理:
数据中心
电网
冷却水
矿产
土地
外包劳工
当你理解这一点,你就会明白:
ChatGPT 不是一个网站。它是一个资源分配器。
4.4 治理:用使命掩护权力
当公司说“我们不为股东负责,我们为人类负责”,听起来很高尚。
但它也意味着:
谁解释“为人类负责”,谁就拥有终极权力。
这就是为什么董事会可以说出那句令人发冷的话(书中引用):
“如果这会毁掉公司,也可能符合使命。”
使命在这里变成了一把万能钥匙。
能开门,也能锁门。
接下来我们从个人策略角度思考:
个人如何在系统之上建立自己的资产
如何把注意力与技能变成杠杆
如何不被叙事吞噬,而是生产叙事
5.1 不要把 ChatGPT 当“答案机器”,要当“认知放大器”
大多数人用 ChatGPT 的方式很像求神:
给我一个正确答案
给我一套完美计划
给我一条捷径
这会让你越来越依赖。
更好的方式是:
让它拆解你的思路
让它逼你澄清问题
让它生成多种视角供你选择
工具的上限取决于你的提问质量。
而提问质量取决于你的世界模型。
5.2 把“写作”当作你的 API
帝国的力量来自接口。
对个人来说,你的接口是什么?
是写作。
写作是你把认知打包成可传播资产的方式。
你不必拥有 GPU 集群。
你只需要持续输出:
你的观察
你的框架
你的实验
然后用 ChatGPT 做你的小型研究员、小型编辑、小型反对者。
你不是在“让它替你写”。
你是在用它提高你表达世界的频率。
更具体一点:
输入:你给它的不是“请写一篇爆款”,而是你真实的经历、观察、数据、失败与偏见。
加工:让它帮你做结构化——列出论点、找出冲突、补齐过渡、提出反例。
输出:最后那句“只有你能写”的判断与立场,必须由你亲自落笔。
你不是在生产内容。
你是在生产可迁移的认知资产。
而 ChatGPT 最好的位置,是你资产生产线上的一台机器——不是老板。
5.3 学会看见成本:你才不会被叙事收割
这本书最重要的礼物是:让你看见“AI 的成本结构”。
一旦你看见成本,你就更难成为信徒。
你会开始问:
这次效率提升,代价被外包给了谁?
这次便利,建立在什么资源之上?
这个系统的激励,会把世界推向哪里?
一个能问出这些问题的人,就更接近主权。
5.4 你真正要训练的不是模型,而是自己
最危险的误解是:
未来属于会用 AI 的人。
更准确的说法是:
未来属于会用 AI 训练自己的人。
训练什么?
判断力
价值观
研究能力
写作能力
选择能力
因为当工具越来越强,你唯一不可替代的东西会变得更少。
到最后,你剩下的只会是:
你选择相信什么。你选择创造什么。
这本书把 OpenAI 写成“帝国”。
但它更像一面镜子。
它照见的不是某个公司的野心。
而是现代社会最熟悉的循环:
新技术出现
叙事承诺普惠
资本推动规模
成本外包给边缘
权力集中到少数
大众在便利与崇拜中失去判断
ChatGPT 之所以重要,不是因为它会写诗。
而是因为它让你第一次感受到:
语言本身可以成为基础设施。
当语言成为基础设施,教育、媒体、劳动、政治都会被重写。
你可以成为信徒。
也可以成为设计者。
别把自己的人生交给任何系统。
把系统拆开。
把有用的部分变成你的杠杆。
然后继续创造。
因为在这个时代,最稀缺的不是信息,也不是算力。
最稀缺的是:一个人能否在喧嚣里持续产出自己的判断,并为判断负责。
6.1|再往深一点:ChatGPT 的“灵魂”来自哪里
如果你想把 ChatGPT 看得更透,你必须把它拆成两块:
底座能力:预训练带来的“语言世界模型”
行为边界:对齐训练带来的“助手人格”
底座能力决定它能不能“像懂”。
行为边界决定它会不会“像人”。
书里引用 Joseph Weizenbaum(ELIZA 的发明者)那段话非常关键:
当一个程序被解释清楚,它的魔法就会崩塌。
ChatGPT 的魔法来自不可解释性,但它的可靠性来自可工程化的边界。
这也是 GPT-4 时代真正的分水岭:
OpenAI 在 GPT-4 的研究页面里强调,他们把整个深度学习栈重建为“可预测扩展(predictable scaling)”,并在训练前能预测训练损失等指标(OpenAI,2023-03-14:GPT‑4)。
这段话翻译成人话就是:
AI帝国开始掌握工业化生产“能力”的方法论。
当能力可以被稳定复制,竞争就不再是“谁先发现”,而是“谁能更快把生产线铺到全球”。
这就是为什么你会看到:
讨论从“模型有多聪明”转向“算力、数据中心、供应链、合规”
讨论从“研究突破”转向“部署速度、用户留存、单位经济模型”
技术仍然重要。
但技术不再是决定性变量。
决定性变量变成了:谁能持续供电。
6.2|为什么“董事会政变”是必然事件
很多人把 2023 年的董事会风波当作一场偶然的宫斗。
但在这本书的框架里,它几乎是必然。
因为 OpenAI 的结构里同时塞进了两套互相打架的操作系统:
使命 OS:为了“造福全人类”而存在,理论上能牺牲公司本身
资本 OS:为了规模化而存在,需要持续融资、持续增长、持续胜利
这两套系统在组织小的时候还能共存。
一旦 ChatGPT 把组织推到“全球基础设施”的位置,矛盾会被放大到无法调和:
使命 OS 需要刹车,需要审慎,需要可解释的治理
资本 OS 需要加速,需要保密,需要强人式执行
董事会想当刹车。
公司想当油门。
最后一定会有人试图拔掉对方的电源。
你看到的是政变。
本质是:治理试图对抗速度,但速度已经被写进估值。
6.3|“帝国公式”的第二层:把人变成燃料
书中最让我难受的,不是董事会会议。
而是那些被一封“off-boarded”邮件切断生计的人。
这不是道德控诉。
这是结构事实:当你用规模换能力,你就会用外包换成本。
数据工作者、内容审核者、低保障合同工……他们是帝国的燃料。
而燃料的特征就是:
可替换
不可见
不被写进发布会
系统最擅长的,是把人的时间变成别人的资产。
如果你只把 ChatGPT 当作“更快写文案的工具”,你其实也在参与同一个逻辑:
追求更快的输出,却不问输出为了谁。
所以我更愿意把这本书的提醒升级为个人原则:
效率不是价值
速度不是意义
规模不是进步
你需要的是:在效率与意义之间重新建立主权。
6.4|把它用在你的人生里:一份 行动清单
如果你只想要一份“怎么用 ChatGPT 变强”的清单,我给你一份我自己最近在执行的计划。
不是提示词。
是训练计划。
A. 每天 30 分钟:用它当“反对者”
把你当天最确信的一条观点丢给它,让它:
用三个反例反驳你
用三个不同学派的理论解释你
找出你观点里最脆弱的假设
你会发现:你在训练的不是模型。
是你的认知免疫系统。
B. 每周一次:用它当“研究助理”,但你必须做最终裁判
选一个你真正关心的主题(行业、职业、健康、教育)。
让它:
列出 10 个关键问题(不是答案)
为每个问题给出 3 个信息源类型(官方/论文/一线数据)
帮你搭一份可验证的阅读清单
然后你亲自去读原文。
这一步会把你从“信息消费者”推向“知识生产者”。
C. 每月一次:写一篇“帝国拆解报告”
选一个你每天在用的系统:
平台(短视频、搜索、电商)
工具(AI、笔记、协作软件)
机构(学校、公司、行业协会)
用这本书的四个层级拆它:
它的叙事是什么?
它的资本激励是什么?
它的基础设施成本是什么?
它的治理结构把权力给了谁?
你写得越多,你就越不容易被叙事催眠。
6.5|最后的提醒:别把你的自我交给“生成”
ChatGPT 的危险不在于它会取代你。
而在于它会让你习惯于:
不再挣扎
不再推敲
不再建立自己的语言
语言是思想的骨架。
当你把语言外包,你也在把思想外包。
所以最好的用法其实很反直觉:
用它加速你“表达后的迭代”,而不是替代你“表达前的思考”。
你写出粗糙的第一稿。
你给出你的判断。
你先承担你的人生。
然后才让它来优化结构、补全盲点、提供候选。
这是主权。
也是这本书最深的隐喻:
帝国会越来越强。
但你可以越来越清醒。
6.6|ChatGPT 的下一世:从“对话框”到“代理人”
如果你只把 ChatGPT 看成聊天机器人,你会低估它。
对话框只是第一代界面。
下一代会更像“代理人(agent)”:
能调用工具
能跨系统执行任务
能代表你与机构交互
一旦 AI 具备行动力,帝国公式会升级:
叙事从“它会写”变成“它会替你做”
资本从“卖订阅”变成“收取执行路径的通行费”
基础设施从“算力”扩张到“权限、身份、支付、数据管道”
治理从“模型安全”扩张到“谁能授权 AI 行动”
这意味着:未来的关键素养不会是“会不会写提示词”。
而是:
你能不能为你的代理人设定边界,并为边界承担责任。
这也是为什么我说这本书写的是 OpenAI。
但它真正写的是我们每个人即将面对的选择:
你要做用户,还是做作者?
你要做信徒,还是做系统设计者?
你要把人生交给速度,还是交给判断?
我的答案很简单:
让 AI 替你做体力活(整理、润色、生成候选)
让你自己做方向盘(取舍、价值、责任)
当多数人把 AI 当成拐杖时,你把它当成杠杆。
差别不在工具。
差别在你是否拥有自己的原则。
而当你把这句话记在心里,你会重新理解开头那枚“凌晨的燃烧瓶”:它不是在攻击一个人。
它在提醒我们——当语言成为基础设施,围绕语言的权力斗争就会变得现实且危险。
你能做的,不是逃离技术。
而是把神话拆开,把成本看清,把边界立住,然后继续创造。
参考资料
OpenAI. Introducing OpenAI. December 11, 2015.
https://openai.com/index/introducing-openai/
OpenAI. OpenAI API. June 11, 2020.
https://openai.com/index/openai-api/
OpenAI. Aligning language models to follow instructions. January 27, 2022.
https://openai.com/index/instruction-following/
OpenAI. Introducing ChatGPT. November 30, 2022.
https://openai.com/index/chatgpt/
OpenAI. GPT‑4. March 14, 2023.
https://openai.com/index/gpt-4-research/
最近文章:
夜雨聆风