小李与AI浪潮:一个SRE这三年的惊喜、焦虑与和解
最难的,不是技术变了,而是你刚站稳,地面就开始动了
之前听过一句话,小李深以为然:“这个世界唯一不变的就是变化”。在码农圈子里,技术不断演进,本来就是再正常不过的事情。
拿小李的从业经历来举例,从虚拟化到容器,从单机部署到 Kubernetes,从手工运维到自动化,从 Java 8 到 Java 21,从 Python 2 到 Python 3,这些年技术一直在更新。
为了跟上技术的进步,小李坚持学习,虽然累是挺累的,但大多数时候,这种变化还是相对平缓的。但凡多花时间学,多踩几个坑,多熬几个夜,慢慢总能跟上。
可 2023 年以后,小李第一次感觉到,事情不太一样了。这次不是某个框架换了写法,也不是某个中间件升级了版本。而是 AI 像潮水一样拍了上来。它不是在一点点优化原有工作。它是在一点点改掉工作的形状。
而最让小李难受的,是那几年他刚刚从开发转到 SRE,正觉得自己终于把这门手艺摸出一点门道。可就在他以为自己终于跟上节奏的时候,AI 把整个节奏都改了。

场景一:选择 SRE,小李以为自己终于在一条难但相对稳的路上
小李不是一开始就做 SRE 的。刚入行那几年,他写过 Java 业务代码,也干过一些脚本活。后来赶上 DevOps 这股潮流,他又做了几年的相关工作,不断积累经验。再往后,因为团队变化、岗位调整,也因为自己越来越喜欢系统、稳定性、监控和自动化这些方向,他才慢慢转向了 SRE。
真转过来以后,他才知道,SRE 这活和外面想的不太一样。
它远远不只是:
-
看看监控
-
配配置告警
-
写写脚本
-
出事了拉群救火
真正做进来才知道,这活像是在跟复杂系统长期摔跤。你要懂:
-
Linux 和网络
-
Kubernetes 和容器
-
定制化开发/维护监控工具
-
产线服务的监控、日志、链路追踪
-
自动化、CI/CD、发布流程
-
容量、成本、容灾、故障演练
更麻烦的是,这些东西不是独立的。它们是叠加的,是咬合的,是一层压着一层的。
你刚学会一块,新的复杂度又会冒出来。小李那几年最常有一种感觉:“好不容易把一层皮练厚了,抬头一看,上面还有三层楼。”
但再苦,他心里其实一直有个安慰:这门手艺是难的。既然难,就有门槛。只要自己继续学、继续做、继续扛事,总归能在这个方向上站稳一点。
那时候他还没意识到,自己辛辛苦苦往上爬的这堵墙,很快就会遇到另一股完全不同的力量。
场景二:2023 年第一次见到 Copilot,小李先是高兴,后来有点沉默
2023 年,小李所在团队开始陆续接触 LLM。
最早让他真正有触动的,不是今天这种会聊天、会调工具、会在工程里连续改文件的智能体(Agentic AI),而是 GitHub Copilot。
今天回头看,Copilot 的形态其实还比较早期。
它不是聊天机器人,它更像一个非常强的代码补全助手:
-
你写函数签名,它给你补实现
-
你写注释,它给你补代码
-
你打一半循环,它大概率知道你后面要写什么
-
它能给建议,也能生成整段代码
-
但它还不像今天的 agent 那样,自己在整个工程里到处改、连续完成一串任务
说白了,早期 Copilot 更像一个“会猜你下一步要敲什么”的超级 Tab 键。
但哪怕只是这样,对当时的小李来说,也已经足够震撼。他第一次用 Copilot 补一个 Shell 脚本时,整个人都愣了一下。本来只是想写个简单的日志清理工具,结果前面刚敲两行,后面的参数判断、目录遍历、错误处理和输出格式,Copilot 已经顺着给了出来。
小李盯着屏幕,一时不知道如何评价:“好家伙,这玩意儿……这么猛?!太牛了”
后来他又试着让它补 Prometheus 告警规则、补 Python 小工具、补 Kubernetes YAML。
不敢说次次都对,可真正让他震动的,不是它完不完美,而是它已经能明显帮人省掉一大截重复劳动了。对一个刚刚在 SRE 路上练出一点熟练度的人来说,这种感觉其实很复杂。
一方面,他是真高兴。因为效率提升太直接了。以前写个小工具,要自己查文档、试参数、抠语法;现在很多时候只要把意图说清楚,骨架就出来了。很多原本机械、重复、枯燥的部分,一下子轻了。
可另一方面,小李心里也闪过一个几乎不愿承认的念头:“如果这种能力继续往前长,那以后被省掉的,会不会不只是重复劳动?”这个念头当时还很轻。很快就被“真好用啊”的兴奋压过去了。
毕竟在 2023 年,大多数技术人还觉得,AI 很强,但还没强到足以重新定义整份工作。
场景三:从 Copilot 到 RAG,再到 MCP,小李第一次感到自己的工作方式正在被复制
Copilot 带来的震撼还没完全消化掉,新的形态又开始冒出来了。
没过多久,小李就明显感觉到,LLM 不再只是“回答问题”。它开始往“组织工作”那边走。RAG 是其中最让他有感触的一种。
有一次,在开周会时,一线同事来问一个历史告警为什么老是反复出现。小李下意识地准备自己去翻旧工单、翻知识库、翻 runbook,身边的同事已经通过 RAG 快速得到了答案。
那一刻小李突然意识到,它不再只是给答案。它开始知道去哪里找答案,再把答案组织回来。这一下,小李有点坐不住了。
因为这和 SRE 的很多日常工作开始变得很像:
-
查告警时翻知识库
-
排故时对照历史工单
-
看日志时结合 SOP 判断动作
-
回答一线问题时,从文档、Runbook、脚本仓库里拼上下文
那时候,小李第一次很清楚地意识到:“我以前以为 AI 是来帮我写东西的。现在看,它开始学着替我走流程了。”
而到了 2025 年,MCP 和上下文工程出来以后,这种感觉又被往前推了一大步。文件系统、命令行、代码库、知识库、外部系统、各种工具接口,开始被结构化地暴露给模型。
以前他觉得,模型再强,也还是隔着一层玻璃。可当文件系统、命令行、知识库这些东西开始被接进来以后,他第一次觉得,那层玻璃好像没那么厚了。
这时小李突然意识到一件更让人发凉的事:自己过去几年辛辛苦苦练出来的,不只是写脚本、配告警、看日志这些表面动作。真正值钱的,其实是“串上下文”的能力。可现在,连这种能力都开始被工程化复制了。
-
过去是:人自己打开系统、查文档、拼信息、决定下一步。
-
现在慢慢变成:人搭环境、搭流程、给边界,模型去找资料、拼上下文、给中间结果。
那一刻,小李第一次感到一种很具体的压迫感。这种感觉不是那种“哇,好强”的兴奋。而是:“如果连这种能力都能被系统化复制,那我手里到底还剩下多少独特性?”

场景四:2026 年春节,小龙虾火了,小李第一次认真想过‘这活还能干多久’
真正让小李开始睡不太着的,是 2026 年春节前后。那段时间,小龙虾(OpenClaw)突然爆火。
各种演示、截图、讨论、二创,几乎一下子铺满了技术圈。大家兴奋地谈论:
-
本地化
-
个性化
-
命令行能力
-
文件操作
-
沙盒
-
自建工具
-
skills
小李一开始还带着点围观心态去看。可越看,他心里越不是滋味。因为他越来越清楚,这已经不是“模型更会聊天了一点”。
它开始像一个真正的执行者那样工作了。它不只是会说,它开始会做:
-
看本地文件
-
调命令
-
读代码库
-
组合技能
-
在受控环境里持续完成任务
小李盯着那些演示,心里第一次冒出一个很不体面的念头:“我这份工作,还能干多久?”这不是矫情。也不是故作悲观。而是一种很真实的职业本能反应。
因为 SRE 这份工作里,本来就有很多部分是流程化、标准化、可上下文拼接的:
-
巡检
-
告警分析
-
故障初筛
-
配置核对
-
脚本执行
-
SOP 路径判断
如果一个智能体真的能把这些事越做越像人,甚至比人更快、更稳,那焦虑几乎是不可避免的。更现实的是,它不知疲倦,也不会分神。
更难受的是,小李很清楚自己这些年吃过多少苦。熬夜补 Linux,补 K8S,补网络,补监控,补自动化。
他原本以为,把这些东西学进身体里,至少能换来一段相对稳定的专业护城河。结果 AI 一来,他突然发现:这堵墙不是没有用,只是正在被快速抹平。
场景五:后来小李想明白了,真正危险的不是 AI 变强,而是自己还假装工作没有变
焦虑归焦虑,活还是得干。担心归担心,现实不会因为你担心就慢一点。
春节那段时间,小李反反复复想了很久,后来才慢慢想明白一件事:自己真正的问题,不是“AI 会不会替掉我”。而是:“在 AI 已经确定会进入工作现场的前提下,我到底要用什么方式继续留下来?”
想明白这一层以后,他的心态反而慢慢稳了一点。因为他意识到,接受现实,不等于认输。拥抱 AI,也不等于放弃专业性。相反,越是 SRE 这种贴着复杂系统工作的岗位,越需要把 AI 变成自己的放大器。
后来小李开始主动调整自己的工作方式:
-
用 AI 辅助写脚本和排障工具
-
用 AI 帮忙整理 SOP 和知识库
-
用 AI 辅助分析告警和日志
-
用 AI 先做一轮变更前的配置检查
-
用 AI 帮忙理解陌生代码、陌生 Helm Chart、陌生 Terraform 模块
他慢慢发现一个很现实的事实:AI 确实在吃掉很多低层、重复、模板化的劳动。但与此同时,它也把人的价值往更上游推了。今天更值钱的,不再只是“手快”。而是:
-
你能不能定义对的问题
-
你能不能识别复杂系统里的真实风险
-
你能不能判断 AI 给出的结果什么时候能信,什么时候不能信
-
你能不能在效率和稳定性之间做取舍
这些东西,至少到现在,还没有被轻易抹平。回头看这三年,小李的变化其实很清楚:
-
一开始是转行后的艰难爬坡
-
后来是第一次被 AI 提效震到的惊喜
-
再后来,是眼看着它从辅助工具一路变成执行体时的压迫感
-
到最后,是不得不接受现实,然后学着和它一起工作
他后来给自己记下了一句话:对技术人来说,真正危险的不是 AI 变强,而是在它变强的过程中,你还试图假装一切都没有变。
回想起往年那句经典的名言:“Talk is cheap, show me the code”,现在来看这句话可能已经过时了,真正决定一个技术人还能不能留下来的,不再只是会不会写代码,而是会不会在新的工作现实里,重新定义自己的价值。

补充说明
-
RAG:`Retrieval-Augmented Generation`,即“检索增强生成”,是一种利用外部知识库来辅助生成任务的技术方法。简单来说,就是“先找资料,再生成答案”。
-
MCP:`Model Context Protocol`,即“模型上下文协议”,是一种允许 LLM 安全访问外部数据和工具的协议。简单来说,就是“给模型一把钥匙,让它自己去拿资料”。
-
skills:这里可以理解为“技能”或“能力模块”,既可以是特定功能的插件,也可以是高效提示词或封装好的能力单元,用来增强智能体完成任务的效果和准确度。
夜雨聆风