4个Agent检查全通过,SEO评分85分,可以发布。
但我读完那篇AI生成的文章之后,总觉得哪里不对劲。
该有的都有了。关键词密度合适,内链数量够,标题结构清晰,Meta描述长度刚好。4个检查Agent挨个过了一遍,每个都给了绿灯。
但就是...... 怎么说呢,像一篇 正确的作业,而不像一篇「能打动人的内容」。
这个发现,是我最近研究AI SEO工具时遇到的。我在做一个AI SEO全流程的产品,做的时候研究了不少同类项目,其中最近有个叫 SEO Machine 的开源项目,架构做得挺清晰。我把它当参照物研究了一下,今天想聊聊我从中琢磨出来的一些东西。
先说这个系统的核心设计思路。
一句话总结就是,用结构化的约束+多维度的检查+数据驱动的反馈,来保证 AI 输出高质量内容。
听起来有点抽象,拆开来看看。
AI 写作最大的问题是什么?容易「跑偏」。不符合品牌调性,SEO 不达标,内容空洞泛泛。你让 AI 写一篇「内容营销策略」,它会给你一篇看起来正确但毫无特色的文章。
SEO Machine 想解决的就是这个问题。
它的做法是把「写文章」这件事拆成好几个阶段,每个阶段都有明确的输入和输出,每个阶段都有检查机制。
第一阶段是研究。
你给它一个关键词,它不会直接开始写。它会先调搜索 API 拿相关词和长尾词,分析搜索量和竞争度,判断搜索意图。然后抓 Google 前 10 的竞对内容,分析他们的结构、要点、标题层级,找出他们没覆盖到的角度。
最后输出一个 research brief,包含目标关键词、竞品分析、内容缺口、推荐大纲。
这一步很关键。传统做法是直接让 AI 写,AI 不知道目标关键词是什么,不知道竞品都写了什么,不知道用户真正搜索什么。写出来的东西就是泛泛而谈。
先研究再写,AI 才有明确的目标和约束。
第二阶段是写作。
基于 research brief,结合预设的品牌声音、写作范例、SEO 规范,生成一篇 2000 到 3000 字的完整文章。
这里有个设计我觉得挺聪明的,叫「上下文约束」。
系统里有几个配置文件。brand-voice.md 定义品牌调性,比如「专业但不古板,语气友好」,还列出禁用词和推荐词。writing-examples.md 放3到5篇公司最好的博客文章,让 AI 通过模仿学习写作风格。seo-guidelines.md规 定硬性规则,文章最少 2000 字,关键词密度 1% 到2%,必须有 3 到 5 个内链。
这些配置文件在 AI 生成之前就限定好了「应该怎么写」。
不是写完再改,是写之前就约束住。
第三阶段是检查。
这是我觉得最精妙的设计。
文章写完后,系统会自动触发 4 个 Agent 来挑毛病。
一个管 SEO,看关键词密度够不够,标题结构对不对,给你打个分再告诉你哪里要改。一个管 Meta,直接给你生成5个标题备选、5个描述备选,省得你自己想。一个管内链,告诉你第3段应该加个链接到哪个页面,锚文本用什么。还有一个管关键词分布,看你是不是把关键词全堆在开头了,还是分布得比较均匀。
4 个 Agent 各管一摊,每个都会给出具体的、可执行的反馈。不是那种「建议优化 SEO」的废话,是「关键词『xx』只出现2次,建议增加到 5-8 次」「第 3 段添加内链到 /features 页面,锚文本用『核心功能』」这种能直接改的东西。
不是「写完就算了」,是「写完必须过 4 道检查」。
第四阶段是优化。
综合所有检查结果,生成一个发布就绪度评估。SEO评分多少,哪些是阻塞项必须修复,哪些是建议项可选修复。
只有达到质量门槛,才建议发布。
整套系统的逻辑就是,约束加检查加评分,等于可控的高质量输出。
我研究完之后的感受是,这套机制确实能解决「AI写作跑偏」的问题。
关键词密度有人管,内链数量有人管,Meta标题长度有人管,可读性有人管。每个环节都有量化指标,都有检查机制,都有改进建议。
效率提升是实打实的。以前一个人干这些活要两天,现在可能两小时就搞定了。
但是。
就是我开头说的那个问题。
4个Agent检查全通过了,SEO评分85分了,但读起来总觉得。。。没有灵魂?我琢磨了挺久才想明白这一点,说实话一开始还觉得是自己太挑剔了。
后来我想清楚了,问题出在哪。
系统的约束和检查,都是基于「公开数据」和「通用规则」。
竞品分析是抓公开的网页。关键词研究是调公开的API。SEO规范是业界通用的规则。品牌声音和写作范例能学到「形」,学到语气和结构,但学不到「为什么这样写」。
它没有的是什么?
目标用户是谁。用户在什么场景下会搜这个关键词。产品跟竞对的核心差异。销售和客服每天听到用户说的那些话。
这些它都没有。
我之前看到一个做SEO的人说过一句话,做ToB SEO,除了公开数据和通用信息,最重要的是找到一个东西,顾客会在什么情况下想到要购买你这个产品。
找到这个场景,才能写出真正有效的内容。
SEO Machine能分析「用户搜什么关键词」「竞对怎么回答这些关键词」。
但它不知道用户为什么会搜这个,背后的场景是什么。不知道这个场景跟你产品的关系是什么。不知道你应该用什么角度切入。
我举个我自己正在琢磨的例子。
我做的是AI SEO工具,那用户会搜什么关键词?「AI写作」「AI SEO」「自动生成文章」这些。系统分析出来搜索意图是商业型,竞对都在写功能对比、工具推荐、10个最好的AI写作工具之类的。
4个Agent检查都通过了,SEO评分也挺高,可以发布。
但我的目标用户是谁?
我仔细想了想,其实是那些已经被「AI写作」坑过的人。他们试过ChatGPT直接写文章,发现写出来的东西没人看,排名也上不去。他们真正的痛点不是「找一个能写的AI」,是「找一个能写出有用内容的方法」。
所以我的内容角度应该是什么?不是「又一个AI写作工具」,是「为什么你之前用AI写的内容没人看,以及怎么解决」。
这个洞察从哪来?
从我自己踩过的坑。从我跟做内容的朋友聊天。从我观察那些「AI生成内容」下面的评论区,看大家在吐槽什么。
不在竞对网站上,不在搜索结果里,不在任何公开API里。
是内部知识,需要人去采集、去提炼、去判断。
AI拿不到这些东西。
所以我做这个产品的时候,想得很清楚。
AI能帮用户做的是什么?
效率层面的事。关键词研究、竞品分析、初稿生成、SEO指标检查,这些繁琐的活让AI干,省大量时间。
AI帮不了用户的是什么?
判断层面的事。定义场景、判断角度、审核质量、最终决策。这些需要用户自己来。
SEO Machine 的设计里其实也体现了这一点。
你看它的流程,研究、写作、检查都是自动化的,但中间有一个环节叫「人工审核加修改」。4 个 Agent 给出建议之后,需要人来判断哪些建议采纳,哪些不采纳,怎么改。
系统给你反馈,但决策权在你手里。
这才是正确的人机协作方式。
我不想做一个「全自动帮你搞定SEO」的产品。因为那是骗人的。全自动生成的内容,跟竞对没有区别。公开数据大家都能拿到,AI能做的事竞对也能做。
真正拉开差距的,是你有而别人没有的东西。
对于做内容的人来说,这个东西就是用户洞察。
我想做的是一个「放大人的判断力」的产品。
AI 帮你做 80% 的基础工作,你有更多时间做那 20% 的高价值判断。AI 能做 80 分的内容,但 80 分的内容跟竞对没有区别。那 20 分的差异,来自你对用户的理解。
所以现在回头看,那个「4 个 Agent 检查全通过」的 85 分文章,问题出在哪?
不是系统不行,是系统只能检查它能检查的东西。
关键词密度、内链数量、Meta 长度,这些都是「可量化的正确」。但用户会不会被打动,这个没法量化。
那 20 分的差距,就藏在这里。
这是工具的边界。
也是工具的价值所在。
把边界画清楚,才能把价值讲明白。说实话,这个道理听起来简单,但我是真的研究完整套系统、自己动手做了一遍之后,才真正想明白的。
工具能帮你跑完 80% 的路,但最后那 20%,得你自己走。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~
Thank you for your attention.
关注我,让我们一起看见AI发展的每一步。
夜雨聆风