我用一句话让AI在Blender里建了一座城前几天晚上,我对着终端敲了一句话:"在Blender里创建一个五角星,放在坐标原点上方2米处,加一个0.2的厚度。"然后我切到Blender窗口。一个五角星,已经静静地悬浮在那里了。位置精确。厚度精确。甚至Solidify修改器都自动加好了。我没有手动建模。没有打开任何菜单。没有写一行Python代码。我甚至没有碰过Blender的界面。这不是AI生图,这是AI直接操控3D软件我先把这件事跟另一个东西区分开。你可能听过AI生成3D模型——比如用文本生成一个低精度的3D mesh。那些工具大多是"生成式"的:AI凭空造出一个东西,但那个东西跟你正在用的Blender项目没有任何关系。这里的情况完全不同。AI不是在"生成"什么。它是真的在操控你已经打开的Blender。它能读取你场景里现有的所有物体。它能移动它们、修改它们的材质、给它们加动画关键帧。它甚至能从Poly Haven自动下载HDR环境贴图给你打光。💡 说人话就是:AI坐在了你旁边,跟你共用一个Blender,而且它学过所有的bpy API。DEMOS案例展示案例1:一句话建模我说:创建一个低多边形的松树,树干是圆柱体,树冠用三层递减的圆锥体叠起来。AI用bpy代码:建圆柱体树干、叠加三个递减圆锥体、对齐位置。整个过程大概3秒。案例2:批量操作我说:把场景里所有名字包含"Cube"的物体全部删掉,只保留灯光和相机。手动做要点好几下。AI一句话搞定。案例3:材质设置我说:给选中的物体添加一个金属材质,粗糙度0.3,颜色用深紫色。直接生成节点材质。这些操作单独看都不复杂。但如果你做过Blender的重复性工作——比如一个场景里五十个物体统一改材质——你就知道"自然语言操控"有多爽。DEEP DIVE这东西到底是怎么工作的?在讲教程之前,有一个关键概念必须先聊清楚。MCP。MCP的全称是 Model Context Protocol(模型上下文协议)。它是Anthropic在2024年底提出的一套开放协议。怎么理解它?打个比方。你家里有各种电子设备:手机、耳机、硬盘、显示器。在USB-C出现之前,每个设备的接口都不一样。你出门得带一堆线。USB-C统一了这一切。一根线搞定所有设备。MCP就是AI世界的USB-C在MCP出现之前,让AI操控Blender得自己写一套定制的接口代码。操控Photoshop?再写一套。操控Excel?又一套。MCP定义了一套标准的通信协议:任何支持MCP的AI(Claude、Cursor等),都可以通过同一种方式,连接到任何支持MCP的软件。一个协议,通吃所有工具。这就是为什么GitHub上关于MCP的项目在2025年集体爆发了。目前主要的Blender MCP项目:• ahujasid/blender-mcp:最早最火的一个,支持Poly Haven资源集成• jabberwock/blend-ai:更现代的实现,覆盖161+种Blender工具• 自定义桥接器方案:就是我在用的方式,下面会教TUTORIAL手把手教程:三步搞定⚠️ 先说一个坑:如果你直接按GitHub上 blender-mcp 的README走,用 uvx blender-mcp 启动,根本连不上Claude Code。因为原版是socket客户端,不是Claude Code需要的stdio模式MCP服务器。所以我写了一个桥接器。Step 1:Blender端准备1. 打开Blender2. 安装 blender-mcp addon(.py文件放到addons目录,偏好设置里启用)3. 按N键打开侧边栏,找到BlenderMCP面板,点击"Start Server"Step 2:创建桥接器在终端跑一句命令,把桥接器代码保存到本地(完整代码见GitHub):cat > /tmp/blender_mcp_bridge.py << 'BRIDGE' # ... 桥接器代码(见GitHub仓库) BRIDGEStep 3:注册到Claude Codeclaude mcp add blender python3 /tmp/blender_mcp_bridge.py验证:claude mcp list # 应该显示: blender: ✓ Connected启动 claude,然后直接说:"帮我查看一下当前Blender场景里有哪些物体?"到这里,少年,你已经完全掌握了。INSIGHT但是,还没完配通了之后,我一直在想一个更深层的问题。这件事的本质是什么?MCP在2024年底提出的时候,GitHub上相关项目不到100个。到2025年中,这个数字涨到了几千个。而且它不只是连Blender。社区已经做出了连接Figma的MCP、连接数据库的MCP、连接浏览器的MCP、连接Slack的MCP。甚至有人做了连接智能家居的MCP——你对AI说一句话,家里的灯就灭了。这意味着什么?以前,每一个专业软件都是一座孤岛。你学Blender要几个月,学Houdini又几个月,学Nuke又几个月。MCP正在做一件事:把所有软件的操作语言,统一成自然语言你不需要知道 bpy.ops.mesh.primitive_cube_add 的语法。不需要记住Blender的快捷键。你只需要说,你要什么。这不是在让专业工具变得"傻瓜化"。这是在让"人与工具的沟通方式"发生根本性的变迁——从"你必须学会工具的语言",变成"工具必须听懂你的语言"。叠个甲当然了,现阶段这套方案不是没有问题。第一,AI生成的bpy代码不是每次都对。复杂操作(带权重的骨骼绑定、复杂节点材质网络)经常翻车。第二,桥接器目前只暴露了两个工具给AI。完整的Blender功能后续还需要逐步扩展。第三,这个方案依赖Blender本地运行。适合自己在本地玩,不适合团队协作。但这个阶段的价值不在于它有多成熟,而在于它指向了一个方向——AI正在从"生成内容"进化到"操控工具"。写在最后上个月我还在手动写bpy脚本批量调整场景物体属性。那种"打开Python控制台、debug一个小时、终于跑通了"的感觉,我从来没觉得有什么问题。但现在我对着终端说了一句话,三秒钟搞定了。以前,学会一个软件的操作方式,本身就是一种竞争力。但现在,你的竞争力正在从"我会操作Blender"转移到"我知道该让Blender做什么"。审美、创意、对最终效果的判断力——这些才是AI没法替代的。剩下的,交给MCP。💻 完整教程和桥接器源码(GitHub):https://github.com/xuanzhe1996/Claude-Code-Blender-MCP点个赞、在看、转发三连吧想第一时间收到推送,记得给我加个星标 ⭐