乐于分享
好东西不私藏

连训练集里都没有的新工具,AI 凭什么能写对?聊聊被低估的“上下文红利”

连训练集里都没有的新工具,AI 凭什么能写对?聊聊被低估的“上下文红利”

之前一直有个很固执的偏见,我觉得大模型写代码这股风气,迟早会把整个技术圈逼回极其无趣的“求稳”状态。

原因很简单,如果你用的新框架、小众库没有被喂进大厂的训练集里,AI 连个 Hello World 都能给你写出十几个 Bug来。为了让 Copilot 闭嘴不报错,大家是不是只能捏着鼻子去用那些老掉牙、但在训练集里占绝对优势的“无聊技术(Boring Technology)”?

但看了 Django 联合创始人 Simon Willison 最近在博客上发的一篇文章《Perhaps not Boring Technology after all》,我突然意识到,这个刻板印象可能要被掀翻了。

这篇文章到底讲了个啥?

简单来说,Simon 发现,随着现代编码智能体(Coding Agents)能力的进化,大模型已经不再被死死限制在它的“历史训练数据”里了。

面对私有代码库或者刚发布几天的全新开源工具,只要你投喂的姿势正确,Agent 完全可以当场学习、当场写出高质量的代码,根本不会强迫你去降级使用那些所谓安全的“老旧主流栈”。

几个彻底改变开发直觉的核心洞察

  • 长上下文彻底干掉了“知识库焦虑” Simon 在文章里提到了一个非常暴力的破局点:现在的编码智能体上下文窗口实在太大了。遇到没见过的新工具,你根本不需要指望它自带这部分的知识储备。直接在提示词里敲一句 使用 uvx showboat --help 了解这些工具,它就能一次性吞下大量说明文档,瞬间掌握这个连训练集里都没有的全新命令行工具。 就像折腾那个基于 Python 和 LangGraph 的 GitHub 自动日报工具时,由于底层框架的 API 经常变,模型自带的知识往往是过期的。但只要在对话框里直接塞给它最新的官方文档片段,Agent 马上就能照葫芦画瓢,连一些极其偏门的节点编排逻辑都能顺畅跑通。
  • “官方外挂(Skills)”正在成为新基建 文章更新部分提到了一个极其敏锐的观察:一项近期研究发现,如果让 AI 完全自主选择技术栈,它确实会偷懒,毫不犹豫地给你选 GitHub Actions、Stripe 或者 shadcn/ui 这种在各自分类里占据“近乎垄断”地位的硬通货。 但当我们人类强制指定了一个新奇的技术栈时,现在的框架厂商早就想好对策了。像 Remotion、Supabase、Vercel 和 Prisma 这些公司,现在发新版的同时,会直接同步发布给 Agent 用的“官方技能包(Skills)”。这相当于给大模型直接塞了一本带可执行权限的官方操作手册。

怎么在命令行里优雅地“现学现卖”?

与其抱怨模型不知道你的新工具,不如直接把文档糊在它的脸上。在使用各种 CLI Agent(比如 Claude Code)时,你可以用一条极其极简的命令,把本地的帮助文档直接重定向给模型作为前置上下文:

# 不管这个 my-new-cli 有多冷门,先让大模型读一遍它的帮助手册再干活> 请仔细阅读 `my-new-cli --help` 和 `cat docs/api.md` 的输出内容。> 掌握其语法后,帮我用这个新工具写一个批量重命名文件的脚本。

总结一下:大模型并没有锁死我们的技术栈选择。相反,凭借超长上下文和越来越完善的 MCP/Skills 生态,我们试错新工具的成本反而被无限拉低了。把你不敢用的前沿框架文档和跑不通的报错日志一股脑丢给 Agent 让它去查缺补漏,这绝对是这几年折腾新技术最爽的姿势。

参考地址:https://simonwillison.net/2026/Mar/9/not-so-boring/

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » 连训练集里都没有的新工具,AI 凭什么能写对?聊聊被低估的“上下文红利”

猜你喜欢

  • 暂无文章