你是不是也遇到过这种情况?
让你的AI助手(比如Claude、Cursor里的Agent)去网上查个资料,结果它要么告诉你“无法访问”,要么给你一堆乱七八糟、明显被反爬虫挡在门外的摘要信息。你想让它帮你看看小红书上某个爆款笔记,或者抓一下需要登录才能看的微博内容,它直接当场死机,反复跟你说“需要登录”或者“页面加载失败”。
🤯 简直要疯了对不对?
别急,今天给你安利一个能让你的AI Agent瞬间开窍的神器——Web-Access Skill。
这个项目就像是给AI装上了一双“人类的手”和一颗“会思考的脑子”。它不再是一个只会傻乎乎发请求的代码机器人,而是一个懂得策略、能操作真实浏览器、甚至能积累上网经验的“老司机”。
🌐 项目地址:https://github.com/eze-is/web-access

✨ 项目亮点
🧠 智能联网策略调度不再纠结用WebSearch还是WebFetch,Skill会根据你的任务自动选择最高效的工具。需要登录?直接上浏览器!只查摘要?用搜索!像点外卖一样,选最对的那家店。
🦾 CDP真实浏览器操作它能直接控制你的Chrome浏览器!点击、滚动、输入、截图、甚至上传文件,全都模拟真人操作。什么反爬虫、动态渲染,在它面前都是纸老虎。
📚 站点经验积累这不是个一次性工具。它会在每次操作后“长记性”,积累不同网站的经验。下次再访问小红书或者推特,它就知道该怎么绕开障碍,越用越聪明。
🔧 兼容所有主流Agent无论你是Claude Code、Cursor、Gemini CLI还是Codex CLI的拥趸,只要支持SKILL.md,它就能无缝接入,即插即用。

🤔 解决什么痛点?
咱们来想象一个场景。
你是个自媒体运营,领导让你去研究一下小红书上最近爆火的某个“沉浸式收纳”视频。你需要知道它的文案结构、评论区都在聊什么、甚至作者都带了哪些标签。
你打开电脑,把任务丢给你的AI Agent:“帮我去小红书搜一下‘沉浸式收纳爆款’,把排名前五的视频文案、评论关键词和标签都整理出来。”
结果呢?
你的AI Agent首先会尝试用普通的WebFetch去抓取小红书页面。小红书的反爬机制瞬间识别出这不是真人在访问,“啪”地一下,直接给你返回一个登录页面或者一个空白的内容块。
Agent懵了。它可能会尝试重试几次,但结果都一样。然后它沮丧地告诉你:“抱歉,我无法访问该页面,可能需要您手动登录。”
😤 你是不是特别想敲它的脑袋?
现在,换上了Web-Access Skill的Agent就不一样了。
它接到任务后,会先启动前置检查,确保你的Chrome已经开启了远程调试(这一步你只需要在Chrome地址栏输入chrome://inspect/#remote-debugging,然后勾选“Allow”就行了)。
接着,它会调用CDP浏览器模式。你甚至可以看到你自己的Chrome浏览器“唰”地一下自动打开了一个新标签页,输入了小红的网址,然后像有人在操作一样,自动滚动页面、点击链接、加载更多内容。
它就像你雇了一个眼疾手快的实习生,坐在你的电脑前,替你浏览网页。所有需要登录的内容、动态加载的图片、需要点击才能展开的评论,它都能搞定。
最后,它会根据你最初的要求,从抓取到的完整页面信息里,智能地提炼出文案、评论和标签,整理成一份漂亮的报告给你。
整个过程,你只需要喝杯咖啡,看着你的电脑屏幕自己动起来就行了。
这就是Web-Access Skill要解决的核心痛点:让你的AI Agent从“网络瞎子”变成“冲浪高手”。

🛠️ 手把手教程
别被“CDP”、“自动化”这些词吓到,跟着我三步走,你也能让你的Agent秒变上网达人。
➤ 第一步:环境安装
这个Skill本身不需要安装,但你的电脑需要满足两个基本条件。
1. 安装Node.js 22+如果你还没有Node.js,去官网下载一个LTS版本就行。这就像给你的电脑装上了“发动机”。
2. 确保你的Chrome浏览器开启了远程调试这是最关键的一步!打开你的Chrome浏览器,在地址栏输入这个并回车:chrome://inspect/#remote-debugging你会看到一个界面,上面有一个选项叫 “Allow remote debugging for this browser instance” ,把它勾选上。如果提示需要重启浏览器,就重启一下。
就这么简单!不需要安装任何复杂的驱动或者浏览器插件。
➤ 第二步:为你的Agent安装Skill
这个Skill的安装方式取决于你用什么Agent。
如果你用的是Claude Code或者Cursor:通常你只需要在项目根目录下,创建一个 .claude/skills/文件夹,然后把下载好的web-access这个Skill文件夹整个放进去就行了。Agent启动时会自动识别。如果你想手动安装(所有Agent通用):把Skill文件夹放到Agent指定的Skill目录下,或者直接在对话中告诉Agent:“请加载 /path/to/web-access这个Skill”。
安装成功后,你的Agent就会知道,以后所有联网相关的操作,都应该先问问这个“老司机”。
➤ 第三步:启动并使用
当你给Agent一个联网任务时,它会自动进行前置检查。
你可能会在对话窗口里看到类似这样的输出:
node "${CLAUDE_SKILL_DIR}/scripts/check-deps.mjs"如果一切正常,它会告诉你检查通过,并且必须向你展示一段温馨提示:
温馨提示:部分站点对浏览器自动化操作检测严格,存在账号封禁风险。已内置防护措施但无法避免,Agent 继续操作即视为接受。
(这是项目内置的免责声明,保护你也保护开发者。)
然后,好戏就开始了!Agent会启动CDP代理服务,地址通常是http://localhost:3456,并通过这个代理去操作你的Chrome浏览器。
一个简单的使用示例:
你跟Agent说:“帮我打开百度,搜索一下‘今天天气怎么样’,然后把第一条结果里的温度告诉我。”
Agent会这样操作:
调用CDP的 /new接口,创建一个新标签页,打开https://www.baidu.com。等待页面加载完成后,调用 /eval接口,执行一段JS代码,找到搜索框并输入“今天天气怎么样”。再调用 /click接口,模拟点击“百度一下”按钮。等待结果页面加载,最后调用 /eval接口,提取第一条结果中的温度信息。把温度回复给你。
所有这些复杂的API调用,你完全不需要关心,Agent会自己处理好。你只需要享受结果。
更高级的玩法:上传文件
假设你需要Agent帮你自动填写一个网页表单并上传一张图片。你可以这样命令它:
“帮我打开这个网站https://example.com/upload,找到那个‘选择文件’的按钮,把我电脑桌面上的photo.jpg传上去,然后点击提交。”
Agent会通过CDP的/setFiles接口,直接绕过文件选择对话框,把文件路径设置给input元素,然后点击提交。全程自动化,就像你在操作一样。

📊 同类项目对比
市面上也有很多给AI用的联网工具,比如直接调用搜索API、或者简单的网页抓取库。那么Web-Access Skill到底强在哪里?我们用一张表来看清楚。
| Web-Access Skill | 普通搜索API (如Google Search API) | 简单网页抓取库 (如Requests + BeautifulSoup) | |
|---|---|---|---|
| 核心能力 | |||
| 应对反爬虫 | |||
| 动态内容渲染 | |||
| 需要登录的内容 | |||
| 交互操作 | |||
| 生态与兼容性 | |||
| 上手难度 |
总结一下:
普通的搜索API就像给你一个望远镜,你只能远远地看个大概。简单的抓取库就像给你一个机械手,但稍微复杂点的瓶子它就拧不开。而Web-Access Skill,是直接给你的AI雇了一个真人替身,坐在浏览器前,你怎么上网,它就怎么上网。

🎯 写在最后
AI Agent的能力上限,很大程度上取决于它与真实世界交互的能力。而互联网,无疑是最大的那个世界。
Web-Access Skill这个项目,巧妙地通过“浏览器远程调试协议(CDP)”和“智能策略调度”,补齐了当前AI Agent最薄弱的一环——像个真人一样去上网。
无论你是想让AI帮你自动收集竞品信息、定时刷社交媒体数据,还是自动化处理一些网页上的重复性工作,这个Skill都能成为你最得力的助手。
最关键的是,它用起来真的非常简单。不需要你懂什么复杂的浏览器自动化框架,也不需要你处理那些烦人的反爬虫策略。你只需要给你的Agent装上这个“大脑”,然后坐在一旁,看着你的电脑屏幕自己动起来就行了。
别再让你的AI当网络瞎子啦,赶紧去GitHub上给这个项目点个Star,让你的Agent也体验一下“网上冲浪”的快乐吧!
🌊 项目传送门:https://github.com/eze-is/web-access
夜雨聆风