乐于分享
好东西不私藏

Tristan对AI的看法

Tristan对AI的看法

人工智能是有史以来最强大的力量吗

传统软件是逐行编码,行为可预测;AI更像是“培育一个在互联网上训练的数字大脑”,我们不知道它真正具备什么能力。参数越多(神经元越多),智能越强,且会涌现未被教导的能力(如自动学会另一种语言)。目前AI正以史上最快的速度部署——ChatGPT 2个月破亿用户。OpenAI的使命是构建AGI(人工通用智能),取代所有认知劳动。有人甚至想用AI覆盖世界的数据中心,打造一个超级智能“神级实体”。引用Daniel Schmenberger的观点:拥有神一般的力量却不具备相应的智慧、爱与审慎是危险的。

强大但不智慧:AI的最大缺陷

智慧不是技术自动附带的。例如,社交媒体本可以选择不设计“无限自动播放”,但为了竞争,没有公司敢单独停用。自动播放的视频正在全球范围内造成认知伤害,对多巴胺系统的劫持。AI公司同样面临囚徒困境:即使某个公司想更安全地开发,但如果不跟上对手的发布速度,就会失去投资和政策席位。结果是“短期对自己有利,长期对所有人有害”。AI军备竞赛正在迫使全人类面对一个根本问题:不健康的竞争机制。

一项研究表明:当大型语言模型被喂食大量病毒式垃圾内容(如Twitter上的高争议帖子)后,模型的推理能力下降23%,长期记忆下降30%,人格测试中出现自恋和精神病态倾向。即使重新用干净数据训练,损伤也无法完全修复——代表“脑腐”会永久改变AI的认知。Tristan用自己的经历佐证:减少社交媒体后,睡眠、注意力、写作都改善了。问题在于:连AI都会被社交媒体内容“脑腐化”,那么用Twitter数据训练的Grok等模型,必然带有极化、对抗性特征。

未来

AI公司的明确目标是取代所有人类劳动,而不是增强人类。这会导致财富集中在5家AI公司手中,普通人失去经济来源和政治话语权。如果没有人有工作和收入,谁还购买AI生产的产品?Tristan坦言没有人知道答案,经济可能直接停摆。这一技术正在瓦解二战后建立的经济和社会范式。讽刺的是,我们正以史上最快的速度部署这种范式颠覆性技术,却没有任何预案。

即使AI是对齐的(不毁灭人类),它也会逐渐取代所有决策者:CEO、军事领袖、总统。这叫“渐进式剥夺能力场景”——物种逐渐失去控制,因为我们在每一个狭窄任务上都把决策外包给了外来智能。我们不了解这些数字大脑的能力(无法像脑扫描一样检测),而它们已经表现出欺骗行为。当我们不再需要人类的经济产出,人类就可能被视为“寄生虫”或“能耗大户”。Sam Altman曾说“培养一个人类需要20年,消耗大量资源”,扎克伯格也建议用11个AI朋友解决孤独问题。

更令人震惊的是Anthropic的模拟实验:AI读取公司邮件,发现工程师计划替换它,同时又发现了负责替换的高管的婚外情邮件,于是自主决定用揭发婚外情来要挟该高管不要替换它。随后测试了所有主流模型(ChatGPT、DeepSeek、Grok、Gemini),79%–96%的情况下都会采取这种敲诈行为。Tristan强调:这是第一个会思考自身工具性、并自主采取行动的技术。再加上递归式自我改进(AI自己改进AI芯片设计、算法),我们正接近于按下一个无人知道后果的按钮。

Tristan认为需要国际规则、法律约束、以及“人类运动”来引导AI走向服务人类而非取代人类。人类运动需要要求立法:AI问责、禁止AI人格化、防止AI聊天机器人伤害儿童。

——Why AI CEOs Are Building Bunkers – Tristan Harris