乐于分享
好东西不私藏

简历要写Token使用量和AI工具落地经验

简历要写Token使用量和AI工具落地经验

以前面试,HR和业务方问你的问题基本就那几个,做了几年产品,带过多大的团队,做过什么项目,上线过什么功能。但最近我发现一个变化,开始有人问你用过哪些AI工具,用AI落地过什么场景,甚至有人会问你大概消耗了多少Token。

这个变化挺有意思的。

我自己的感受是,AI使用深度正在成为产品经理的一个新评估维度。不是说你会不会用ChatGPT或者DeepSeek,而是你用了多深,用AI真正解决过什么问题,产出过什么可交付的成果。

说到Token这个事,我自己消耗的量远超最初的预期。

刚开始用的时候觉得1000万Token是个很大的数字,后来发现真正拿AI干活的时候,1000万Token能干的事情真不多。一个稍微复杂点的功能从需求讨论到方案输出到原型生成,跑下来就是几百万Token起步。让我意识到Token使用量,它背后能反映你跟AI协作的深度。

Token使用量是怎么跑起来的

很多人可能觉得,用AI不就是问个问题拿个答案嘛,能消耗多少Token?我一开始也是这么想的。

拿我自己的prd-skills技能举例。

我在Claude里搭了一套从需求输入到方案输出的工作流,一个功能做下来,要先把需求背景喂进去,然后跟AI反复讨论方案细节,讨论过程全部留痕,确认方案后让AI输出完整的PRD文档,最后还要生成HTML原型。这一套跑下来,一个稍微复杂点的功能,100万Token都不够用。

但真正吃Token的还不是这些。是上下文和记忆。

你跟AI聊一个复杂项目的时候,前面聊过的背景信息、业务规则、技术约束,AI都需要在上下文里保持住。聊着聊着上下文就满了,我经常搞到上下文受限,不得不用/compact压缩一下再继续。压缩完再展开,又是一轮Token消耗。更离谱的是AI在开发测试环节的报错循环,写一段代码,跑一下报错,把错误信息贴回去让AI改,改完再跑再报错,这个循环下来Token消耗是惊人的。

我前段时间搭个人知识引擎系统,从架构设计到功能开发到调试上线,搞了好几天,估摸消耗了2亿Token。

2亿,这个数字说出来可能有人觉得夸张,但你真正用AI从零搭一个系统就知道,这个量级才是真正在用AI干活的体感。

Token用量,反映的是你跟AI协作的深度。

很多人使用AI还停留在问答模式,不是说问答模式不好,而是这个阶段的AI使用经验,写进简历里分量是不够的。

把AI当搜索引擎用不算落地经验

这块需要注意一下,很多人说自己会用AI,但你仔细一聊就会发现,他们只是把百度换成了DeepSeek。问一句答一句,查个概念,翻译个文档,总结个会议纪要。

我不是说这些没用,有需求就有市场,这些场景确实能提升效率。但如果你把这个写进简历里说自己有AI落地经验,面试官稍微追问两句你就接不住了。

真正的落地是什么?是你用AI完成了一个完整的工作流,解决了一个具体的业务问题,产出了可交付的成果。

我给你对比一下两种用法的差异。

搜索式用法,遇到问题问AI,拿到答案就走,下次遇到类似问题再问一遍。这跟你用百度搜索没有本质区别,只是搜索结果质量更高了。

工程式用法,你把AI嵌入到你的工作流程里,让它参与需求分析、方案设计、原型生成、代码开发、测试验证的全过程。你跟AI之间不是一问一答的关系,而是持续协作的关系。

后者才值得写进简历。

简历上应该怎么写AI落地经验

说到具体怎么写,我觉得核心就是把三件事讲清楚。

第一,你用AI做了哪些场景。不要笼统地说我会用AI,要说具体的场景。用Dify搭过什么工作流,用N8N做过什么自动化流程,用Claude Code写过什么代码、搭过什么系统,用AI生成过图片、视频还是文章。每一个都是可以写进简历的实际经验。

第二,解决了什么问题。你搭的这个工作流,是解决了数据查询效率低的问题,还是解决了需求文档产出慢的问题,还是解决了测试覆盖不全的问题。问题要具体,不能说我用AI提升了工作效率,这话等于没说。

第三,提升了什么效率,需要有量化数据。以前写一份PRD要两天,现在用AI协作半天搞定。以前搭一个原型要一周,现在用Claude Code两天出可交互的HTML原型,这些数字面试官是能感知到的。

顺着这个再说一个我踩过的坑。做系统的时候尽量用同一个大模型,而且要用最新版本。我之前为了省钱混着用不同模型,结果上下文能力不一样,目前DeepSeek只有128k上下文,很快就用完了,得压缩后再来继续,容易流失关键信息。

不同模型理解和处理问题能力差距也很大,同样的需求有的模型很快就处理好了,有的模型搞几个小时还在那瞎折腾。

来回折腾浪费的时间和Token远比省下的钱多。不要贪便宜用老版本,模型能力差一代,输出质量差的不是一点半点。

给大家一个简历写法的具体示例。不要写我会用ChatGPT,这跟写我会用Word一样没有信息量。

要写,我用Claude Code搭建了个人知识引擎系统,消耗约2亿Token,实现了个人知识的结构化存储和智能检索,将知识查找效率提升了多少倍。

场景、问题、效率,三个维度写清楚,这才是一条有分量的简历经验。

这个趋势对产品经理意味着能力升级

回到更大的视角来看,产品经理的能力评估维度确实在发生变化。

以前看你画原型的能力,Axure用得熟不熟,交互细节想得全不全。看你写PRD的能力,文档结构清不清晰,边界条件考虑得周不周到。这些能力依然重要,但评估标准在变,不是看你能不能做,而是看你能不能用AI把这些事情做得更快更好。

我自己现在在公司已经没有手动画原型了,不是说画原型这个技能不重要,而是我找到了更高效的方式。用AI生成HTML原型,速度快,可交互,还能直接给开发看效果,这个变化对我来说是实实在在的效率提升。

不要小看任何一个工具。Dify背后是工作流编排的思维,N8N背后是自动化的思维,Claude Code背后是用自然语言驱动开发的思维,每一个工具都代表一种新的工作方式。你掌握的不只是工具本身,而是工具背后的那套协作模式。

我做了这么多年产品,越来越觉得一件事,工具的变化速度永远比你想象的快,但底层的产品思维和解决问题的能力是不变的。AI不会取代产品经理,但会用AI的产品经理会取代不会用的。这话虽然被说烂了,但它确实在发生。

别人还在讨论AI取代谁,你应该已经在用AI干活了。

Token使用量和AI工具落地经验,正在成为产品经理的新硬通货,这个趋势不可逆。

简历上写Token使用量不是炫耀,是证明你真的在用AI解决实际问题。它代表的是你跟AI协作的深度、你处理复杂任务的能力、你对新工具的掌握程度。

在找工作的同学我建议大家就去盘一下自己用AI做过的事情,按场景、问题、效率三个维度整理出来,写进简历里。哪怕你现在的经验还不多,也可以从今天开始有意识地积累,每做一个AI相关的项目就记录下来。

以前面试问你几年经验,现在问你消耗了多少Token,用过哪些AI工具。这个变化已经在发生了,各位产品经理们别等到被问的时候才开始准备喔。

—— END ——

如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~

推荐阅读

我现在在公司已经不画原型了,我被取代了
从“产品所有者”向“产品创造者”转型的深度洞察
我的团队已经3年多没有测试了,最近想通了一个可行的系统自动化测试方法

以后画原型的工作要被取代了
产品经理免费课程,成长体系2阶段,14讲
产品经理免费课程,成长体系1阶段,20讲
产品经理方法论v2.0精华版
产品经理思维框架24讲

欢迎加入我的知识星球,一起学习成长。

点击关注 “产品经理方法论”,

快速成长的方法论

↓↓↓