乐于分享
好东西不私藏

AI篇:名词解释(建议保存)

AI篇:名词解释(建议保存)

1.基础概念(必懂)

  1. AI(人工智能,Artificial Intelligence):1956 年达特茅斯会议提出,让机器模拟人类感知、学习、推理、决策的技术科学。

  2. ANI(弱人工智能,Narrow AI):专注单一任务的 AI(如语音助手、推荐算法),当前主流形态。

  3. AGI(通用人工智能,General Intelligence):具备人类级通用智能,能跨领域完成任意智力任务(仍在研发)。

  4. ML(机器学习,Machine Learning):AI 核心分支,数据驱动、无需显式编程,从数据中自动学规律。

  5. DL(深度学习,Deep Learning):ML 进阶,用 ** 多层神经网络(≥3 层)** 模拟人脑,擅长图像 / 语音 / 文本等复杂数据。

  6. NN(神经网络,Neural Network):DL 基础架构,由输入层、隐藏层、输出层组成,靠神经元连接权重传递信息。

  7. AIGC(AI 生成内容,AI-Generated Content):AI 自动创作文本、图像、音频、视频、代码等内容。


2.机器学习核心术语

2.1. 学习范式

  1. 监督学习(Supervised Learning):用 ** 带标签数据(输入 X + 输出 Y)** 训练,学 X→Y 映射(如分类、回归)。

  2. 无监督学习(Unsupervised Learning):用无标签数据,自动发现数据结构(如聚类、降维、异常检测)。

  3. 强化学习(Reinforcement Learning, RL)智能体(Agent)*与环境交互,通过*奖励 / 惩罚最大化累积回报(如 AlphaGo、自动驾驶)。

  4. 半监督学习(Semi-Supervised Learning)少量标签 + 大量无标签数据,提升模型性能。

  5. 迁移学习(Transfer Learning):把源领域预训练知识迁移到目标领域,加速训练、减少数据需求(如 BERT→医疗文本)。

  6. 自监督学习(Self-Supervised Learning):从数据本身自动生成标签(如句子填空、图像拼图),预训练大模型主流范式。

2.2. 模型训练与优化

  1. 训练(Training):喂数据给模型,迭代调整参数、降低损失、提升精度(圈内称 “炼丹”)。

  2. 推理(Inference):训练好的模型处理新数据、输出结果(侧重速度 / 低延迟)。

  3. 微调(Fine-Tuning):在预训练大模型基础上,用领域小数据二次训练,适配特定场景。

  4. 过拟合(Overfitting):模型死记训练数据,新数据表现差(泛化能力弱)。

  5. 欠拟合(Underfitting):模型太简单,训练 / 测试数据都表现差。

  6. 损失函数(Loss Function):衡量预测值与真实值误差,训练目标是最小化它。

  7. 梯度下降(Gradient Descent)优化算法,沿损失函数梯度反方向调整参数,逐步收敛到最优解。


3.深度学习核心架构

  1. Transformer:2017 年 Google 提出,自注意力机制为核心,并行处理序列数据、捕捉长距离依赖,LLM 标配底座(如 GPT、BERT)。

  2. CNN(卷积神经网络,Convolutional NN)图像 / 视频专用,卷积层提取空间特征(边缘→纹理→部件→整体),代表:ResNet、YOLO、ViT。

  3. RNN/LSTM/GRU(循环神经网络):** 序列数据(文本 / 语音)** 专用,解决时序依赖;LSTM/GRU 缓解 RNN 梯度消失。

  4. GAN(生成对抗网络,Generative Adversarial Network):** 生成器(造假)+ 判别器(辨假)** 对抗训练,生成逼真图像 / 视频(如 DeepFake、StyleGAN)。

  5. MLP(多层感知器)全连接神经网络,至少 3 层,用于简单分类 / 回归。


4.大模型(LLM)专属名词

  1. LLM(大语言模型,Large Language Model)千亿 / 万亿参数海量文本预训练的 Transformer 模型,懂语言、能生成、会推理(如 GPT-4、文心一言、通义千问、豆包)。

  2. 参数(Parameter):模型可学习的权重 / 偏置,参数越多能力越强、算力需求越高(GPT-3:175B,GPT-4:~1.8T)。

  3. Token(词元):LLM 处理文本的基本单位(≈0.75 汉字、1 英文单词),既是信息单位也是计费单位

  4. 上下文窗口(Context Window):模型单次能理解 / 记忆的最大 Token 数(如 GPT-4:8k/32k,Claude 3:200k)。

  5. 提示词(Prompt):用户给 LLM 的指令 / 问题 / 输入文本,决定输出质量;** 提示词工程(Prompt Engineering)** 是优化 Prompt 的技术。

  6. 对齐(Alignment):让 LLM输出符合人类价值观 / 意图 / 安全规范(如 RLHF、SFT、DPO)。

  7. RLHF(基于人类反馈的强化学习):用人类偏好数据微调 LLM,提升有用性、真实性、无害性。

  8. SFT(有监督微调):用高质量指令 – 响应数据微调预训练模型,让它学会遵循指令。

  9. Agent(智能体)能自主感知、决策、执行任务的 LLM(如 AutoGPT、OpenAI Clow),可拆解任务、调用工具、多步骤完成目标。

  10. 多模态(Multimodal):模型同时处理文本、图像、音频、视频等多种信息(如 GPT-4V、Gemini、文心一言 4.0)。

  11. RAG(检索增强生成,Retrieval-Augmented Generation):LLM结合外部知识库检索,生成更准确、最新、可溯源的内容(解决 “幻觉”)。

  12. 幻觉(Hallucination):LLM生成看似合理但虚假 / 错误的信息(大模型通病)。


5.核心技术领域

5.1. NLP(自然语言处理)

  1. 词嵌入(Word Embedding):词汇映射到低维稠密向量,捕捉语义关联(如 Word2Vec、GloVe)。

  2. BERT(双向编码器表示):Google 2018 年提出,双向预训练,擅长理解类任务(问答、分类、NER)。

  3. GPT(生成式预训练):OpenAI 提出,单向自回归,擅长生成类任务(写作、对话、代码)。

  4. NER(命名实体识别):从文本中识别人名、地名、机构名、时间等实体。

  5. 情感分析(Sentiment Analysis):判断文本正面 / 负面 / 中性情绪(舆情分析、评论挖掘)。

5.2. CV(计算机视觉)

  1. 图像分类(Image Classification):识别整张图所属类别(如猫 / 狗 / 车)。

  2. 目标检测(Object Detection)定位 + 识别多个目标(如 YOLO、Faster R-CNN)。

  3. 图像分割(Image Segmentation):像素级划分图像语义区域(语义分割、实例分割、全景分割)。

  4. OCR(光学字符识别):从图像中提取文本(扫描件、身份证、车牌)。

5.3. 语音处理

  1. ASR(自动语音识别):语音→文本(如讯飞听见、Whisper)。

  2. TTS(文本转语音):文本→自然语音(如语音助手、有声书)。


6.算力与工程

  1. GPU(图形处理器)并行计算芯片,AI 训练 / 推理主力(NVIDIA A100、H100)。

  2. TPU(张量处理器):Google 定制 AI 芯片,专为 Transformer 优化

  3. 算力(FLOPs)每秒浮点运算次数,衡量模型复杂度与硬件需求。

  4. API(应用程序接口):AI 服务对外开放的调用接口(如 OpenAI API、百度千帆 API),方便开发者集成 AI 能力。

  5. 微调(Fine-Tuning):见前文。

  6. 蒸馏(Distillation):用大模型(教师)*训练*小模型(学生),小模型体积小、速度快、性能接近大模型。

  7. 量化(Quantization):降低模型参数精度(如 FP16→INT8),减少显存占用、提升推理速度、降低成本。


7.前沿与热点

  1. AGI(通用人工智能):见前文。

  2. 超级智能(Superintelligence)超越人类最高水平的 AI(未来风险讨论焦点)。

  3. AI 安全(AI Safety):研究防止 AI 失控、滥用、偏见、歧视的技术与伦理框架。

  4. AI 伦理(AI Ethics):AI 开发与应用中的公平、透明、可解释、隐私、责任等伦理问题。

  5. 可解释 AI(XAI):让 AI决策过程可理解、可追溯、可验证(解决 “黑箱” 问题)。

  6. AI + 科学(AI for Science):AI 赋能药物研发、材料科学、气候预测、基因编辑等科研领域。

  7. 具身智能(Embodied AI):AI拥有物理实体(机器人),在真实世界中感知、行动、学习(如特斯拉 Optimus、小米 CyberOne)。


8.高频缩写速查

  1. AI:人工智能

  2. ANI:弱人工智能

  3. AGI:通用人工智能

  4. ML:机器学习

  5. DL:深度学习

  6. NN:神经网络

  7. AIGC:AI 生成内容

  8. LLM:大语言模型

  9. Transformer:自注意力架构

  10. CNN:卷积神经网络

  11. RNN:循环神经网络

  12. GAN:生成对抗网络

  13. NLP:自然语言处理

  14. CV:计算机视觉

  15. ASR:语音识别

  16. TTS:语音合成

  17. RAG:检索增强生成

  18. RLHF:人类反馈强化学习

  19. GPU:图形处理器

  20. API:应用程序接口