在AI学习中,经常会看到一些英文缩写,这给刚入门的我们造成了极大的听觉和视觉暴击。
为了帮你快速破译这些“AI摩斯密码”,我依然按照从宏观到微观、从底层原理到上层应用的逻辑,为你整理了66个最典型、最高频的AI字母简称术语,并分成了7大阵营。
第一阵营:AI的“家谱”与学习流派(宏观基础)
这些是你最先会遇到的字母,决定了AI属于什么段位、怎么学习。
- AI
(Artificial Intelligence) - 人工智能:最宽泛的总称。 - AGI
(Artificial General Intelligence) - 通用人工智能:像人一样啥都能干的终极AI。 - ANI
(Artificial Narrow Intelligence) - 弱/窄人工智能:只能干单一任务(如人脸识别)的AI。 - ASI
(Artificial Super Intelligence) - 超级人工智能:全方位碾压人类大脑的假想AI。 - ML
(Machine Learning) - 机器学习:让机器从数据中找规律的核心方法。 - DL
(Deep Learning) - 深度学习:用多层神经网络搞定的“高阶版”机器学习。 - RL
(Reinforcement Learning) - 强化学习:在试错中靠“奖惩机制”学习的流派(如AlphaGo)。 - FL
(Federated Learning) - 联邦学习:“数据不动模型动”,在保护隐私的前提下多方联合训练AI。 - TL
(Transfer Learning) - 迁移学习:把A领域的知识“迁移”到B领域(比如先认识了猫,再学认老虎就很快)。 - XAI
(Explainable AI) - 可解释人工智能:致力于打开AI“黑盒”,让你知道它为什么这么回答。 第二阵营:AI的“脑部结构”(经典神经网络架构)
这些缩写代表了AI大脑内部不同的“布线方式”,每种擅长处理不同的数据。 - ANN
(Artificial Neural Network) - 人工神经网络:最基础的模仿生物神经元的网络。 - DNN
(Deep Neural Network) - 深度神经网络:有很多隐藏层的ANN。 - CNN
(Convolutional Neural Network) - 卷积神经网络:AI的“眼睛”,极其擅长处理图片和视频。 - RNN
(Recurrent Neural Network) - 循环神经网络:AI的“记忆中枢”,适合处理有前后顺序的数据(如语音、文本)。 - LSTM
(Long Short-Term Memory) - 长短期记忆网络:RNN的升级版,解决了“前面说的话后面就忘了”的问题。 - GRU
(Gated Recurrent Unit) - 门控循环单元:LSTM的简化版,跑得更快。 - GAN
(Generative Adversarial Network) - 生成对抗网络:“左右互搏”术,一个造假(生成器),一个验假(判别器),互相进步(常用于AI换脸)。 - VAE
(Variational Autoencoder) - 变分自编码器:把图片压缩成一段代码,再还原出来的架构。 - MLP
(Multilayer Perceptron) - 多层感知机:最老牌、最基础的前馈神经网络。 - MoE
(Mixture of Experts) - 混合专家模型:把大任务分给几个“小专家”(子网络)分别处理,省算力又聪明(GPT-4用了这个技术)。 第三阵营:语言大模型的核心(LLM与NLP体系)
ChatGPT时代最核心的字母缩写,全在这里。 - LLM
(Large Language Model) - 大语言模型:ChatGPT这类模型的统称。 - SLM
(Small Language Model) - 小语言模型:参数量少、能在手机或普通电脑上跑的轻量级模型。 - NLP
(Natural Language Processing) - 自然语言处理:让AI懂人类语言的学科总称。 - NLU
(Natural Language Understanding) - 自然语言理解:让AI“听懂”你的意图。 - NLG
(Natural Language Generation) - 自然语言生成:让AI“说出/写出”流畅的句子。 - GPT
(Generative Pre-trained Transformer) - 生成式预训练变换器:OpenAI赖以成名的底层架构名。 - BERT
(Bidirectional Encoder Representations from Transformers) - 双向编码器变换器:谷歌当年横扫NLP圈的架构,擅长理解(如搜索),不擅长生成。 - GLM
(General Language Model) - 通用语言模型:清华系大模型(如ChatGLM)采用的底层架构。 - KV
(KV Cache) - 键值缓存:大模型在生成文字时用来“记笔记”的技术,能大幅提升生成速度。 - S2S
(Sequence to Sequence) - 序列到序列:把一段话(序列)翻译成另一段话的经典模型结构。 第四阵营:AI的“十八般武艺”(生成式AI与多模态)
AI不仅能聊天,还能看图、听声音、画画,这些字母代表了它的跨界能力。 - AIGC
(AI-Generated Content) - AI生成内容:指AI写的文章、画的图、做的视频等所有产出。 - LDM
(Latent Diffusion Model) - 潜在扩散模型:Stable Diffusion的底层核心,在压缩空间里“去马赛克”画图。 - CLIP
(Contrastive Language-Image Pre-training) - 对比语言-图像预训练:OpenAI的技术,让AI理解“图”和“文字”是怎么对应的(是画图软件里的关键组件)。 - TTS
(Text-to-Speech) - 文本转语音:让AI开口说话的技术(如各种配音工具)。 - ASR
(Automatic Speech Recognition) - 自动语音识别:把人的语音转化成文字(如语音转文字输入法)。 - OCR
(Optical Character Recognition) - 光学字符识别:让AI从图片里把文字“抠”出来。 - T2I
(Text-to-Image) - 文生图:输入文字生成图片(如Midjourney)。 - T2V
(Text-to-Video) - 文生视频:输入文字生成视频(如Sora)。 - I2I
(Image-to-Image) - 图生图:给一张草图或线稿,AI帮你上色或转成真实照片。 - VQA
(Visual Question Answering) - 视觉问答:你给AI一张图,问它问题,它能看着图回答你。 第五阵营:大模型的“后天补习班”(训练与对齐技术)
一个“傻白甜”的基础模型,是怎么变成懂礼貌、不瞎编的ChatGPT的?靠这些缩写。 - PT
(Pre-Training) - 预训练:让AI读遍天下文章的“九年义务教育”。 - FT
(Fine-Tuning) - 微调:针对特定任务给AI开“小灶”。 - SFT
(Supervised Fine-Tuning) - 监督微调:人工写好“标准问答对”,让AI模仿着学。 - IT
(Instruction Tuning) - 指令微调:专门教AI怎么听懂人类下达的“命令/指令”。 - PEFT
(Parameter-Efficient Fine-Tuning) - 高效参数微调:不改动大模型全部参数,只调一小部分,极大降低微调门槛。 - LoRA
(Low-Rank Adaptation) - 低秩微调:目前最火的PEFT技术,普通人用单张显卡就能微调大模型。 - QLoRA
(Quantized LoRA) - 量化低秩微调:把LoRA再次压缩,连显存要求都打骨折了。 - RLHF
(Reinforcement Learning from Human Feedback) - 基于人类反馈的强化学习:让人类给AI的回答打分,AI据此自我进化(ChatGPT的灵魂技术)。 - DPO
(Direct Preference Optimization) - 直接偏好优化:RLHF的平替方案,不需要复杂的强化学习,直接用数据就能教会AI人类的偏好。 - CoT
(Chain of Thought) - 思维链:在提示词里让AI“一步一步地想”,能大幅提升它做数学题和复杂推理的能力。 第六阵营:AI的“打工装备”(应用落地架构)
大模型怎么真正变成能帮你干活的产品? - RAG
(Retrieval-Augmented Generation) - 检索增强生成:让AI先“查资料”再“回答”,有效解决AI瞎编(幻觉)的问题。 - API
(Application Programming Interface) - 应用程序接口:开发者调用大模型能力的“插座”。 - SDK
(Software Development Kit) - 软件开发工具包:把API、文档、示例代码打包好的“工具箱”。 - MAS
(Multi-Agent System) - 多智能体系统:让好几个不同角色的AI(比如一个写代码、一个测试)组成团队一起干活。 - MCP
(Model Context Protocol) - 模型上下文协议:最近刚火的协议,相当于给AI统一配备了“U盘接口”,让它能更方便地读取外部数据。 - LAM
(Language Action Model) - 语言动作模型:不仅懂你说话,还能直接帮你操作手机APP(比如你说订票,它自己打开APP点按钮)。 - RPA
(Robotic Process Automation) - 机器人流程自动化:在电脑上按设定规则自动点点点的“数字打工人”,现在正在和AI结合。 - DSL
(Domain-Specific Language) - 领域特定语言:为了某个特定任务专门发明的简单编程语言(比如写Prompt的特殊格式)。 第七阵营:AI的“肉体与体检”(底层硬件、部署与评测)
不管软件多厉害,最终都得靠硬件跑起来,并且需要被科学打分。 - GPU
(Graphics Processing Unit) - 图形处理器:AI时代的“算力霸主”(如英伟达显卡),因为擅长并行计算被拿来做AI。 - TPU
(Tensor Processing Unit) - 张量处理器:谷歌专门为AI定制的芯片,算自家模型特别快。 - NPU
(Neural Processing Unit) - 神经网络处理器:手机和电脑里专门用来跑小型AI任务的“AI小脑”(如苹果的神经引擎)。 - VRAM
(Video RAM) - 显存:显卡的专属内存,决定你的电脑能跑多大的AI模型(显存不够,模型直接报错崩掉)。 - INT4
(4-bit Integer) - 4位整数:代表“量化”技术,把庞大的AI模型从16位压缩到4位,虽然稍微变笨,但能省下巨量显存。 - ONNX
(Open Neural Network Exchange) - 开放神经网络交换格式:AI模型的“万能翻译器”,让模型能在不同框架和硬件之间无缝迁移。 - BLEU
(Bilingual Evaluation Understudy) - 双语评估替身:专门用来给AI翻译或AI写文章打分的传统指标(算重合度)。 - F1
(F1 Score) - F1分数:评估AI分类能力的“综合成绩单”,兼顾了AI判断的“准确率”和“召回率”。
💡 小白破译指南总结:遇到不懂的字母缩写,先看它带不带以下核心“词根”:
带 N/L/P(如NLP, LLM, GPT):基本跟语言文字有关。 带 C/V/I(如CNN, VAE, T2I):基本跟图像视觉有关。 带 T/F(如PT, SFT, LoRA):基本跟怎么训练有关。 带 U/A(如NPU, GPU, API):基本跟硬件或接口有关。
大本营的愿景是成为AI学习的推动者,带领更多爱学习的人解锁AI,让更多的人在AI时代不掉队。
DeepSeek·DeepSeek-R1/V3指令
字节跳动·豆包指令
百度·文心一言(ERNIE Bot)指令
月之暗面·Kimi指令
阿里云·通义千问(Qwen)指令
腾讯·混元大模型(Hunyuan)指令
夜雨聆风