下次听到这些AI“黑话”,不再尴尬说我不懂

事情是这样的。
前两天我被拉进一个饭局,座上有做投资的、有开公司的、有当老师的。喝了两杯酒之后,聊天的画风开始不对劲。
做投资的大哥说,最近在看AI Agent方向的赛道,感觉多模态能力会成为标配。
开公司的朋友接话,说对,他们现在客服系统准备接个LLM试试,上下文窗口得选大一点的。
当老师的朋友问,LLM我知道,但什么叫上下文窗口?
气氛突然安静了两秒。
然后做投资的大哥开始解释,结果越解释越多,蹦出来一堆专业词汇。老师朋友听了一会儿说,算了算了,你们聊我听不懂。
我当时就在想,这个场景真的太常见了。AI圈的人说话特别喜欢夹英语缩写,一个词套一个词,圈外人听一会儿就自动关闭大脑了。
但我后来想明白一件事,这些概念本身没有那么难。只是没有人用我们听得懂的话,从头讲一遍。
所以今天我来干这件事。这篇文章的目的只有一个,让一个完全不懂AI的人,读完之后能听懂AI圈的人在说什么,不说成为专家,至少不被那些词汇吓退。
我尽量不讲废话,每个词都给你讲透。
先从最基础的开始,AI是什么
现在新闻里说的AI,基本都是人工智能的缩写。但人工智能这个词其实挺误导的,因为它听起来好像要让机器像人一样思考。
现在的AI不是这样的。
现在的AI,更像是一个超级厉害的模式识别机器。它不是真的在思考,而是在庞大的数据里找到了规律,然后照着规律工作。
举个例子。你教一个小孩子认识猫,你会给他看很多猫的图片,看多了他就认识猫了。AI也一样,只不过它看的不是几张图,是几十亿张。看完之后它就总结出规律了,什么样的特征组合起来就是一只猫。下次你给它一张新的图片,它就能判断这是不是猫。
这个过程叫机器学习,是AI的核心技术。
所以下次有人跟你说什么什么用了AI技术,你就可以理解成,它用了一种让机器从数据里自己发现规律的方法,而不是人手工写死的规则。
这就是AI的基本逻辑。
LLM,大语言模型
LLM是这三个词里出现频率最高的。你可能不知道它是什么意思,但你肯定见过它跑出来的结果。
GPT就是LLM,Claude也是,DeepSeek也是。我们平时用的ChatGPT,其实就是跑在LLM上的一个对话界面。
LLM的意思是大语言模型。拆开看,
大,指的是规模大。训练这个模型用了海量的文字数据,可能是整个互联网上的很大一部分。参数数量也巨大,大的模型有几千亿个参数。参数你可以理解为模型内部的旋钮,旋钮越多,模型能捕捉的规律就越复杂。
语言,指的是它处理的是文字。它的工作方式是,给你一段文字,然后预测下一个文字应该是什么。听起来好像很简单,但当这个预测基于几千亿的文字训练过之后,它能做到的事情就非常惊人了。它不只是在预测下一个字,它能理解整段话的意思,能写文章、能回答问题、能翻译、能总结。
模型,指的是它不是一个写死的程序,而是一个参数化的系统。同一个输入,参数不同,输出就不同。这些参数是靠训练数据喂出来的,不是人手工调的。
所以LLM的核心逻辑就是,用海量文字训练一个参数巨多的模型,让它学会预测下一个词,然后基于这个能力,它涌现出了各种智能行为。
记住这个预测下一个词的逻辑。很多AI看起来在理解你,其实它在做的是,根据你输入的内容,预测最可能让你满意的回复。
Token和上下文窗口
理解了LLM之后,这两个词就好懂了。
Token是AI处理文字时的最小单位。英文大概四分之三个单词算一个token,中文一个汉字通常就是一个token。你跟AI说的每一句话,都会转化成token给AI处理。
为什么要用token而不是直接数字符?因为AI训练的时候用的是token,不是字符。所以它处理和计费都用token来算。
上下文窗口的意思是,AI一次能处理的文字总量。比如一个模型的上下文窗口是10万token,就是说它一次能处理大约七八万个汉字。你扔给它一本《三国演义》,它能一口气读完然后跟你讨论。
上下文窗口的大小直接影响使用体验。窗口太小,你跟它聊长的项目,聊着聊着它就忘了前面说过什么了。窗口大的AI更适合处理长文,写小说、做分析、总结一本书。
现在的趋势是窗口越来越大。一年前几千token为主,现在10万、100万token的模型已经很常见了。
AGI,通用人工智能
这个词你肯定会越来越多地听到。
现在所有的AI都是专用AI。下棋的只会下棋,聊天就只会聊天,打游戏的只会打游戏。你让一个下棋AI去做饭,它就傻眼了。
AGI的意思是通用人工智能,就是那种什么都会、跟人一样能干各种事情的AI。
现在我们用的所有AI都还没有达到AGI的水平。科学家们还在研究什么时候能造出AGI,乐观的觉得十年内,悲观的觉得还要几十年。
Prompt,你跟AI说话的方式
Prompt这个词你应该见过,就是你发给AI的那段话。这个概念虽然简单,但怎么发其实有讲究。
同样一个AI,你问帮我写一封请假邮件,和帮我写一封请假邮件,内容是父亲生病需要回老家照顾,语气要诚恳但不能太卑微,不要超过200字,AI给出的结果完全不一样。
这就是Prompt Engineering,研究怎么写Prompt能让AI表现更好的领域。
最重要的技巧其实就是一条,说清楚你要什么,越具体越好。AI不是你肚子里的蛔虫,你脑子里想的那个画面如果不写出来,它真的不知道。
还有一个技巧很有用,就是让AI扮演一个角色。你让它扮演一个经验丰富的律师帮你写合同,它输出的质量通常比你不设定角色直接写要好很多。
学写好Prompt比想象中重要多了。用好Prompt,一个普通模型能发挥出百分之八九十的能力。
AIGC,AI生成内容
AIGC这个词现在到处都能看到。
AIGC就是AI Generated Content的缩写,中文意思是人工智能生成内容。
这个词说的是用AI来生成各种内容,文字、图片、音乐、视频、代码,这些都是内容。所以AIGC不是指某一个具体的技术,而是指所有用AI来生成内容这件事的总称。
你用ChatGPT写文章,那是AIGC。你用Midjourney生成图片,那是AIGC。你用Sora生成视频,也是AIGC。你用AI播客工具生成一期节目,还是AIGC。
这个概念为什么突然火了呢?因为以前生成内容只能靠人,文章得人来写,图片得人来画,视频得人来拍。但现在AI能做了,而且做得越来越快越来越好。
对普通人来说,AIGC说的是一件事。这件事是,一个人可以做的事比以前多多了。你不需要会画画,只需要会描述画面,AI能帮你把画面生成出来。你不需要会剪辑,AI能帮你把视频剪出来。你不需要会作曲,AI能帮你把音乐做出来。
当然,AIGC也有它的问题。AI生成的内容到底算不算原创?版权归谁?这些法律问题现在还没有完全解决。另外AI生成的内容有时候会有幻觉,会编造不存在的事实,用的时候得留意核实。
但总的来说,AIGC正在改变内容创作行业的方式。这个趋势不会倒退,只会越来越快。
AI搜索,不只是搜,是直接给答案
这个词对普通人最有用了,因为你马上就能用上。
你平时用Google、百度,那叫搜索引擎。你输入关键词,它返回一堆网页链接让你自己挑。
AI搜索不一样。你问一个问题,它直接给你一个答案,不是链接,是答案。
比如你问比特币现在多少钱。搜索引擎给你一堆新闻链接,你自己点进去看。AI搜索直接告诉你一个数字,附带一句这个价格来自哪里。
Perplexity、秘塔搜索、夸克AI搜索这些都是AI搜索产品。用惯了之后真的很爽,因为省去了你自己筛选信息的步骤。
但AI搜索也有问题。它给你的是它认为正确的答案,不是原始资料。重要的事情最好还是自己核实一下。
多模态,AI开始长眼睛和耳朵了
多模态的意思是AI不只能处理文字,还能处理图片、音频、视频。
以前的AI模型,你只能跟它文字对话。你发图片给它,它看不懂。
现在的多模态模型不一样了。你发一张X光片给它,它能帮你看有没有问题。你拍一道数学题发给它,它能给你讲哪里错了。你发一段录音给它,它能告诉你说了什么。
多模态的本质是,AI开始有了感官。它不再只是一个处理文字的机器,而是变成了一个能看、能听、能读的智能体。
2026年了,现在新出的模型如果不支持多模态,都不好意思开发布会。
AI Agent,能替你做事的AI
这个词最近火得不行,但概念其实不难理解。
普通AI是你问它答。你让它写篇文章,它给你一篇文章,然后就没了。你们之间是一次性的交互。
AI Agent不一样。你给它一个目标,它自己想办法完成。
比如你跟它说,帮我看看这个月花了多少钱,哪些地方花得最多。它会自己打开你的账单、分类统计、生成报告,最后给你一个结论。它做了一整套的事情,而不是只回答一个问题。
再具体一点。你让它帮你订一张下周去北京的机票。它会自己比较价格、查酒店、选座位,最后一步到位帮你下单。它在替你做决定,而不只是给你信息。
这就是AI Agent的核心意思,它不只是一个回答问题的机器,而是一个能自主行动,完成多步骤任务的系统。
未来的趋势是,每个人的电脑和手机里都会有一个这种替你干活的Agent。
MCP,AI界的USB-C接口
MCP,Model Context Protocol,模型上下文协议。
这个名字特别技术,但类比一下就懂了。
MCP就像是AI界的USB-C。
USB-C是什么?就是那种一根线能连接所有设备的统一标准。以前苹果用Lightning,安卓用Type-C,显示器用HDMI,每个设备都不一样,想连就得找专门的线。
MCP解决的就是这个问题。以前每个AI连接外部工具的方式都不一样,OpenAI是一种,Anthropic是另一种,想给AI接个外部工具就得单独开发一次。MCP制定了一个统一的标准,以后任何AI都可以用同一种方式连接任何外部工具。
它不是在提升AI的能力,而是在解决AI和外部世界怎么连接的问题。就像USB-C不是在提升手机性能,而是在提升手机和其他设备配合的体验。
现在Claude、ChatGPT、各种AI Agent都在陆续支持MCP。以后AI能帮你做的事情会越来越多,因为它能连接的东西越来越多了。
Skill,AI的能力扩展包
Skill翻译过来是技能,但在AI语境下,它更像是能力扩展包。
什么叫Skill?就像手机装了一个新APP就能多用一个功能一样,你的AI装了一个Skill之后,它就能多做一件以前不会做的事情。
比如你用的AI本来只会聊天。现在你想让它帮你发邮件。给它装一个发邮件的Skill,它就能操作邮件客户端发出去了。想让它帮你查航班?装一个航班查询的Skill,它就能连接航空数据库帮你查了。
MCP和Skill的关系是怎样的?MCP是那个让Skill能连接进AI的接口标准。MCP是插座,Skill是插头。一个负责定标准,一个负责提供具体功能。
现在很多AI平台都有自己的Skill市场。平台提供一个地方让开发者发布各种Skill,用户想要什么功能就装什么Skill。
买了一个AI其实只是买了一个基础,它能做什么,取决于上面装了多少Skill。以后选AI助手,平台上有多少可用的Skill会是一个越来越重要的考量因素。
OpenClaw,就是那只小笼虾
OpenClaw你应该也听过。就是那个被很多人叫小笼虾的东西。一个开源的AI Agent框架,在国内用的人特别多。
简单说,OpenClaw就是一个能帮你把各种AI能力串起来的工具。它能连接飞书、微信、Telegram这些通讯工具,能运行各种Skill,能自动执行任务。最重要的是它能一直跑着,不像普通AI用完就结束,它是真正长期在后台运行的助手。
它的安装和使用也不算复杂。官方有详细的安装文档,装完之后配置好想要的功能,就能一直跑着了。很多人装了之后用来自动处理飞书消息、管理日程、发邮件、生成内容,一套流程跑下来省很多事。
维护方面也不难。偶尔更新一下版本,看看社区里有没有新的Skill可用,基本上日常不用怎么管。官方更新挺勤快的,问题一般很快能修。
国内很多人在用OpenClaw的原因主要是两点。一是开源免费,不想被某个平台绑定。二是部署在自己服务器上,数据安全自己掌控。这两点对很多个人开发者和小型团队来说很有吸引力。
如果你对AI Agent感兴趣,想自己动手试试,OpenClaw是个不错的起点。它的社区也挺活跃的,遇到问题一般能搜到解决方案。
本地部署,AI可以跑在自己电脑上了
这个词以前只有开发者关心,但这两年问的人越来越多了。
本地部署就是把AI模型下载到自己电脑上跑,不依赖云服务器。
以前为什么没有本地AI?因为以前那些模型太大了,普通电脑跑不动。但Llama、Qwen、DeepSeek这些开源模型起来之后,情况变了。现在一台普通游戏电脑,已经能跑一个性能不错的AI模型了。
本地部署有两个明显的好处。
第一是隐私。你的对话数据不用传给任何服务器,全都留在自己电脑上。
第二是速度。不用等服务器响应,没有网络延迟。
缺点是本地模型的能力通常比云端最顶级的模型差一些,而且特别吃电脑配置。但这个差距正在快速缩小。
API和APIKey,AI的接口和钥匙
API和APIKey这两个词经常一起出现,搞清楚了就简单。
API是Application Programming Interface的缩写,中文叫应用程序接口。你可以把它理解为一座桥,连接两个系统,让它们可以互相说话。
举个例子。你用美团点外卖,美团服务器要跟支付宝通信,要跟地图服务商通信,要跟餐厅系统通信。每个通信都需要一套规则,规定怎么发请求、怎么返回结果。这套规则就是API。
AI的API也是一样的道理。OpenAI把GPT模型做成了一个服务,你想用GPT,就通过API去调用它。你发一段文字过去,API把结果返回来。就像你跟一个函数说,给我处理一下这段文字,函数把结果还给你。
APIKey就是API的钥匙。你想用某个AI的API服务,你得先注册拿到一个Key,就像用户名密码一样。每次调用API的时候带上这个Key,服务商才知道是谁在用,可以计费,可以限制用量。
普通用户一般不需要直接接触API,但如果你想自己开发一个产品接AI能力,APIKey就是必需品。
CLI,命令行界面
CLI是Command Line Interface的缩写,就是命令行界面。
你平时用电脑,鼠标点图标那种叫图形界面,点一下文件夹就打开了。命令行界面不一样,你得打字输入命令来控制电脑。
那这跟AI有什么关系?现在很多AI工具是命令行界面的。你装了一个AI Agent,它在你电脑上跑,你不能图形界面上点点鼠标操作它,你得打开终端,打字跟它说话。
就像你跟AI发消息一样,只不过不是在网页上打字,是在终端里输入。比如你输入帮我查一下今天北京的天气,终端里就会显示AI的回复。
Claude Code就是一个典型的CLI工具。你在终端里输入帮我解释一下这段代码,它就给你回复。这就是命令行界面的AI助手。
用CLI的好处是,它能直接操控你的电脑,可以读写文件、运行程序、访问网络。比网页版的AI能做的事情多多了。但门槛也高一点,你得习惯用命令行。
现在很多AI开发者和重度用户都在用CLI工具,因为效率高、灵活。
主流模型,GPT、Claude、DeepSeek、Gemini、Grok、Llama
现在全球有好几家公司在做大语言模型,简单介绍一下主流的几个。
GPT是OpenAI做的,就是ChatGPT背后的模型。OpenAI是最早把大语言模型推向大众的公司,生态最成熟。最新的是GPT-5.4,性能在各种测试里依然是顶尖水平。
Claude是Anthropic做的,谷歌投资的那家。最新的是Claude Opus 4.6和Sonnet 4.6,在编程和长文本处理方面特别强,而且它倾向于承认自己不知道的事情,不确定的时候不会瞎编,这点很多人喜欢。
DeepSeek是中国团队做的,这几年进步特别快。它的特点是很多模型开源免费,在编程和推理任务上表现特别强,价格便宜很多,被很多人认为是性价比最高的选择。
Gemini是Google做的,就是那个做搜索的Google。最新是Gemini 3.1 Pro,在很多基准测试上已经是领先的位置了,而且价格比GPT-5便宜很多。Gemini的特点是原生多模态,发布的时候就支持文字、图片、音频、视频一起处理。
Grok是马斯克的xAI做的,这个得单独说说。马斯克出手的东西关注度都不会低。Grok的特点是能实时访问X平台的数据,就是那个以前的Twitter,所以在处理实时热点和社交内容方面有天然优势。最新是Grok 4.20,架构跟其他模型不太一样,用的是多agent并行架构,四个专门的AI一起协作回答问题。在Alpha Arena真钱炒股测试里,它是唯一一个赚钱的模型。
Llama是Meta做的,就是Facebook那个公司。Llama系列是开源里最出名的一个,最新是Llama 4,在开源模型里性能很强。Meta把它开源出来之后,全球很多开发者都在它的基础上做自己的模型。
除了这几个,还有阿里的Qwen在国内用的人也很多,MiniMax在国内做多模态模型做得也不错,清华的GLM系列和月之暗面的KIMI也是开源社区里的常客。
每个都有自己的强项,没有绝对的好坏。选哪个主要看你的使用场景和偏好。多试试,找到最适合你的。
编程工具,Claude Code、Cursor、GitHub Copilot
如果你写代码,有个东西你肯定会被提到,就是AI编程助手。
Claude Code是Anthropic出的命令行编程工具。你在终端里跟它说话,它就能帮你读代码,写代码、跑测试、改bug。它背后跑的是Claude模型,所以继承了在代码理解方面的优势。很多人用完之后说,比之前用过的任何编程助手都顺手。
Cursor是另一个很火的编程工具,它的特点是直接在你写代码的编辑器里集成了AI。你敲代码的时候它自动补全,你选一段代码它能帮你解释、修改、优化。Cursor背后接的也是Claude和GPT。
GitHub Copilot是GitHub出的,用的是OpenAI的模型。GitHub是全球最大的代码托管平台,程序员的都知道。Copilot跟IDE集成很深,VS Code、JetBrains这些主流编辑器都能用。
Codex是OpenAI出的编程模型,Claude Code用的底层技术就跟Codex有关系。还有Cody,是Sourcegraph做的,特点是特别擅长理解整个代码库的上下文,适合超大型项目。
简单理解的话,Claude Code适合喜欢在终端里工作的人,Cursor适合想要边写边看的开发者,GitHub Copilot适合已经重度用GitHub的人。
这些工具正在改变程序员写代码的方式。以后学编程的过程中,这些AI助手会变得越来越重要。
写在最后
好了,解释完了。
回顾一下,今天我们讲了这些词,
AI是让机器从数据里自己发现规律,LLM是处理文字的超级预测机器,Token是AI处理的最小单位,上下文窗口是AI一次能看多少文字,AGI是还在研究的通用人工智能。Prompt是你跟AI说话的方式,说清楚你要什么AI才能给你想要的结果。AIGC是AI生成内容,AI写文章做图片视频都是,AI搜索是直接给答案,多模态是AI能看图听歌看视频,AI Agent是能替你做事的AI,MCP是统一AI和外部工具连接的标准,Skill是AI的能力扩展包,OpenClaw就是那只小笼虾,本地部署是AI可以跑在自己电脑上,API是AI的接口让程序之间可以通信,APIKey是调用API的钥匙,CLI是命令行界面让AI能直接操控电脑。GPT、Claude、DeepSeek、Gemini、Grok、Llama是目前最主流的几个模型,Claude Code、Cursor、GitHub Copilot是程序员最常用的编程助手。
这篇文章的目标不是把你变成AI专家,是让你下次在饭局上听到有人聊这些词的时候,心里不会慌。能听懂他们在说什么,甚至能插一两句话,这就够了。
真要搞懂这些,还是得用起来。用着用着你就发现,这些概念没有想象中那么难。
去吧,光看不练永远学不会。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~
夜雨聆风