游戏AI简史:从「假装聪明」到「替你干活」的五十年
1.1 游戏可能是人类最早大规模部署AI的行业,1980年《吃豆人》的四个幽灵各自拥有独特的追逐算法。
2.2 规则时代三十年:有限状态机、行为树、GOAP,用最低计算成本模拟最高”智能感”。
3.3 学习时代:AlphaGo、AlphaStar、OpenAI Five证明AI可以在复杂博弈中超越人类。
4.4 生成时代:AI从游戏内的角色变成游戏外的生产工具,重写整条管线。
5.5 理解这段历史,对每个游戏从业者判断自己的位置、做对下一步选择至关重要。
从吃豆人到ChatGPT 游戏AI半个世纪的进化之路
The Evolution of Game AI Over Fifty Years
游戏可能是人类最早大规模部署AI的行业。1980年,《吃豆人》上线。四个幽灵各自有一套追逐算法——红色的Blinky直奔你当前位置,粉色的Pinky预判你前方四格,蓝色的Inky根据Blinky的位置做镜像包抄,橙色的Clyde在靠近你时反而会掉头跑开。这套设计没有用到任何”智能”技术。四个幽灵本质上就是四条写死的规则。但当它们同时出现在迷宫里,玩家的体感是:这些家伙在配合围堵我。这可能是人类历史上第一次被”假的AI”骗到。
46年后的今天,AI已经能帮游戏团队画概念图、写代码、生成3D模型、自动化测试。但如果你去问大多数游戏从业者”游戏AI是从什么时候开始的”,十个人里有八个会回答:ChatGPT之后。但其实游戏行业和AI的关系,比你想的深得多,也早得多。而理解这段历史,对今天每个游戏从业者判断自己的位置、做对下一步选择,可能比任何一篇”AI工具推荐”都重要。
电子游戏诞生之初就有AI的影子。1952年,剑桥大学的博士生Douglas写了一个井字棋程序,这大概是最早的”游戏AI”——虽然那时候还没有”AI”这个词。但真正让游戏AI成为一门手艺的,是街机和主机时代。
那个年代,硬件资源极度有限。一台街机的CPU性能可能还不如今天一个智能门锁。在这种条件下,游戏开发者需要用最少的计算量,让玩家觉得”对面有个脑子在想事情”。于是诞生了游戏AI最经典的技术:有限状态机(FSM)。
落到实际的游戏里,它的逻辑是这样:敌人只有几种”状态”——巡逻、追击、攻击、逃跑。每个状态之间有固定的切换条件。玩家靠近,切到追击;血量低了,切到逃跑。就这么简单。《帝国时代》的敌方AI用的是这套。《半条命》的士兵AI,底层也是这套。简单但够用。而且有一个好处:完全可控。策划可以精确地预测每一种情况下AI会做什么,这对游戏体验的调优至关重要。
有限状态机的问题是,当状态多了之后,状态之间的转换关系会变得像一团乱麻。一个Boss如果有20种行为模式,状态机的连线图能让人崩溃。于是出现了行为树(Behavior Tree)。
行为树把AI的决策过程组织成一棵树:从根节点开始,按照优先级一层层往下判断,直到找到一个可执行的行为。它比状态机更容易维护、更容易扩展,迅速成为3A游戏的标配。《光环2》是最早大规模使用行为树的游戏之一。之后的《刺客信条》系列、《巫师3》、虚幻引擎内置的AI模块,都把行为树当作核心框架。
2005年,Monolith出品了一款FPS叫《F.E.A.R.》。它用了一套叫GOAP(目标导向行动规划)的系统。跟行为树不同,GOAP不预设行为路径,而是给AI一个目标(比如”消灭玩家”),然后让AI自己从一堆可用动作里规划出一条执行路径。
落到游戏里的效果是:敌人会翻桌子找掩体、会互相呼叫支援、会绕路包抄、会在你扔手雷的时候四散逃开。当年的玩家第一次感受到”这些AI好像真的在想办法弄死我”。
但这里有一个关键点——GOAP不是为了让AI变强,而是为了让AI的行为看起来更自然。这就是游戏AI和其他领域AI最大的区别。围棋AI的目标是赢,自动驾驶AI的目标是安全,但游戏AI的核心目标从来不是”打赢玩家”——而是创造好的体验。一个太强的AI,玩家会觉得不公平;一个太弱的AI,玩家会觉得无聊。游戏AI设计师真正在做的事情,是让AI”输得像个人”。好的游戏AI,是在演戏。这个认知到今天依然重要。很多游戏团队在接入大模型的时候踩的坑,根源都是没想清楚这一层:你需要的到底是一个”聪明的AI”,还是一个”好用的AI”。
三十年的核心遗产: 从1970年代到2010年代中期,游戏AI的主旋律可以用一句话概括:用最低的计算成本,模拟出最高的”智能感”。
技术手段: 有限状态机、行为树、AI寻路、效用系统、GOAP——这些技术在今天看来都算不上”真正的AI”。
价值启示: 技术的价值不在于它有多先进,而在于它能多好地服务于产品目标。有限状态机在技术上毫无新意,但它支撑了三十年的游戏产业。
2016年3月,AlphaGo击败李世石。这件事不仅仅关乎于围棋。它第一次向公众证明:AI可以在一个规则复杂、变化空间巨大的博弈环境中,通过自我学习达到超越人类的水平。而”规则复杂、变化空间巨大的博弈环境”——这不就是游戏吗?
于是AI业界开始把目光投向更复杂的游戏。不是井字棋,不是围棋,而是实时的、多变量的、需要长期策略的电子游戏。
2017年,DeepMind的Atari实验。用深度强化学习(DQN),AI仅靠屏幕像素和分数反馈,就在多款Atari游戏上超越了人类玩家。这证明了AI可以从零开始、不需要人类经验,仅通过试错就学会玩游戏。
2019年1月,DeepMind的AlphaStar。在《星际争霸2》中击败了职业选手。星际争霸是实时策略游戏,信息不完全、操作维度极高、需要同时处理经济/军事/侦察多条线。AlphaStar靠大规模自我对弈的强化学习做到了这件事。
2019年4月,OpenAI Five。在Dota 2中以2:0击败了当时的世界冠军队伍OG。Dota 2是5v5的团队协作游戏,AI不仅要做个体决策,还要做团队配合——这在当时被认为是强化学习的极限挑战之一。同一时期,腾讯AI Lab的”绝悟”也在《王者荣耀》上达到了顶级职业选手的水平。
AlphaStar能打赢职业选手,但暴雪没有把它放进《星际争霸2》的匹配系统。OpenAI Five能碾压世界冠军,但V社没有用它来做Dota 2的AI对手。为什么?
原因很简单:太强的AI,不好玩。当AI的微操速度超过人类极限、当AI的策略判断没有失误,玩家面对的不是”挑战”,而是”碾压”。没有人想在一个游戏里被AI虐到怀疑人生。
更深层的原因是:这些AI的训练成本极高(AlphaStar据说用了约200年等值的游戏时间来训练),但它们学会的能力高度专用化——AlphaStar只会打星际争霸,换个地图都不行。从产品角度看,投入产出比完全不合理。
AI的能力天花板和AI的产品价值之间,不是线性关系。能力到了某个点之后,继续往上推,边际价值反而在下降。很多团队追求用最强的模型,但产品场景可能根本不需要那么强——你让GPT-5去写一个NPC的巡逻对话,和用一个微调过的小模型,玩家体感可能没有区别,但成本差了几十倍。
学习时代真正留给游戏行业的东西: 深度强化学习这一波,表面上看是”AI学会了玩游戏”,但它真正推动的是另一件事:游戏成为了AI研究最重要的试验场。
试验场逻辑: OpenAI、DeepMind、腾讯AI Lab,这些实验室选择用游戏来训练和测试AI,是因为游戏提供了一个成本极低、迭代极快的虚拟环境。
循环关系: 游戏是AI的试验场,AI又在反哺游戏的基础设施。这个循环关系,到今天越转越快。
2022年底ChatGPT发布。2023年,Midjourney和Stable Diffusion席卷创意行业。2024年,Claude Code和Cursor重新定义了代码生产方式。对游戏行业来说,这波变化的核心转折不是”AI进入了游戏”——AI一直在游戏里——而是AI从游戏内的角色,变成了游戏外的生产工具。
之前几十年,游戏AI的主战场是NPC的脑子:怎么让敌人追得更聪明,怎么让队友挡得更及时,怎么让Boss出招更有层次感。现在,AI的主战场换了。它变成了美术的手、程序的键盘、QA的眼睛、PM的助手。
美术管线,可能是目前AI渗透最深的环节。概念图生成、角色立绘、场景氛围图——Midjourney和Stable Diffusion加自训练的LoRA模型,还有最近的Nano-Banana和GPT-Image-2,已经被大量团队用在前期设计阶段。
我了解到的一些团队的做法:付费角色,原画师必须亲手画,这是游戏的核心商业资产,不能冒风险;非付费角色和辅助素材,用AI生成初稿,人工精修。把美术从重复劳动里解放出来,去做更有创造性的事。
代码生成,正在加速。从GitHub Copilot到Claude Code,程序员的工作方式已经发生了实质性变化。一个中型游戏项目里大量的工具链开发、自动化脚本、数据处理模块——这些以前”太小不值得专门开发”的内部需求,现在可以让AI快速完成。
QA和测试,是另一个正在被改造的环节。AI驱动的自动化测试、智能Bug检测、回归测试覆盖——这些方向都有团队在做尝试,进展参差不齐,但趋势清晰。
项目管理,也在变。排期的风险识别、Sprint数据分析、需求文档的结构化自检、跨组沟通的信息梳理——这些PM每天在做的事,AI已经可以承担一部分。我自己每天也在用AI辅助这些工作,并整理了一份专属于PM的AI实战手册,感兴趣的朋友可以去pmnote.ai了解详情。
在”游戏外”的管线革命同时,”游戏内”的AI也在发生变化——只不过落地速度比外界想象的慢。大模型驱动的AI NPC,是最被期待的方向。Inworld AI、Convai、网易伏羲都在做类似的事情:让NPC不再按脚本对话,而是基于大模型实时生成回应。玩家可以用自然语言跟NPC聊天,NPC能记住之前的对话、理解上下文、做出个性化反应。
GDC 2026上,已经有团队展示了基于AI的游戏原型:玩家回答几个问题就能创建自定义英雄,角色的属性和技能都由初始对话决定。也有独立开发者用AI工具链,一个人完成了从概念到可玩Demo的全流程。
但落到商业化产品里,挑战依然很大。延迟、成本、内容安全、一致性——每一个都是实打实的产品问题。一个AI NPC如果回复需要等3秒,那它在动作游戏里就没法用。一个AI NPC如果说了不该说的话,那它在面向未成年人的游戏里就是灾难。AI in Game的真正瓶颈,不是技术能不能做到,而是产品层面值不值得、敢不敢用。这跟开头提到的”游戏AI的核心是服务体验”的逻辑一脉相承。
如果你去问今天的游戏公司”你们用AI做什么”,大部分诚实的回答会是:省钱。概念图用AI生成,省了外包费。内部工具用AI写,省了开发周期。测试用例用AI跑,省了QA人力。少数走在前面的团队,开始用AI做增效:加快迭代速度,让一个人能干以前三个人的事。更少数的团队,在探索AI带来的真正创新:AI原生游戏、动态叙事、个性化内容生成。
降本先于增效,增效先于创新。这不是讽刺,这是产业规律。历史上每一次技术变革都是这个顺序——先帮你省钱,再帮你赚钱,最后改变你赚钱的方式。三十年前3D引擎出现的时候,第一波用的人也不是为了”创造全新的游戏体验”,而是为了”用更少的人画出更多的场景”。
理解这个顺序,能帮你判断一个关键问题:你所在的团队,现在处在哪个阶段?如果你的团队连AI降本都还没跑通,就急着聊AI创新,大概率是在建空中楼阁。
70年代到2015年——游戏AI是一门手艺。策划和程序员用有限状态机、行为树、寻路算法,手工”雕刻”出NPC的每一个行为。核心能力是设计能力:你要理解玩家想要什么体验,然后用最低成本模拟出来。
2016年到2022年——AI开始真的”学会”玩游戏。深度强化学习让AI在星际争霸、Dota、王者荣耀里达到超人类水平。但这些能力没有直接进入产品,而是重新定义了AI研究的基础设施。核心变化是游戏成为了AI的训练场。
2023年至今——大模型让AI从游戏里走出来,开始改造游戏的整条生产管线。AI不再只是NPC的大脑,它变成了美术的手、程序的键盘、QA的眼睛。核心变化是AI从”游戏的一部分”变成了”做游戏的工具”。
三个时代,看似在讲技术演进,但对从业者来说,真正需要回答的问题只有一个:在这条曲线上,你现在做的事,在哪个位置?
如果你还在用第一个时代的工具做第一个时代的事,那你的技能还有生命力——行为树和状态机没有过时,今天大部分游戏项目的底层还在用。但你需要意识到,这条线的上限是固定的。
如果你开始用第三个时代的工具做第一个时代的事,恭喜你,你已经比大多数同行快了一步。用AI辅助写行为树逻辑、用Claude帮你调试寻路算法、用自动化工具跑回归测试——这些都是实实在在的效率提升。
而真正值得长期投入的方向,可能是理解AI工具在游戏研发全流程中的位置——不是追最新的模型,而是想清楚:在你的项目里,AI应该介入哪些环节、用什么方式介入、边界在哪里。这个判断能力,光看工具教程是学不来的。它需要你对游戏研发流程有系统理解,同时对AI的能力边界有清醒认知。
游戏行业和AI的关系,比大多数人以为的要深、要远。46年前,四个吃豆人幽灵靠几行规则”假装”出了智能。今天,AI可以自己画角色、写代码、生成整个虚拟世界。但有一件事从来没有变过:技术服务于体验,工具服务于人。
在这条延续了半个世纪的线上,找到你自己的位置,然后往前走。
我做了个个人品牌网站 pmnote.ai,上面有PM社区、游戏PM系列课程、各平台内容入口和一对一咨询的预约方式。如果今天这篇对你有帮助,可以分享给身边有需要的朋友,我们下期见。