AI篇:名词解释(建议保存)
1.基础概念(必懂)
-
AI(人工智能,Artificial Intelligence):1956 年达特茅斯会议提出,让机器模拟人类感知、学习、推理、决策的技术科学。
-
ANI(弱人工智能,Narrow AI):专注单一任务的 AI(如语音助手、推荐算法),当前主流形态。
-
AGI(通用人工智能,General Intelligence):具备人类级通用智能,能跨领域完成任意智力任务(仍在研发)。
-
ML(机器学习,Machine Learning):AI 核心分支,数据驱动、无需显式编程,从数据中自动学规律。
-
DL(深度学习,Deep Learning):ML 进阶,用 ** 多层神经网络(≥3 层)** 模拟人脑,擅长图像 / 语音 / 文本等复杂数据。
-
NN(神经网络,Neural Network):DL 基础架构,由输入层、隐藏层、输出层组成,靠神经元连接权重传递信息。
-
AIGC(AI 生成内容,AI-Generated Content):AI 自动创作文本、图像、音频、视频、代码等内容。
2.机器学习核心术语
2.1. 学习范式
-
监督学习(Supervised Learning):用 ** 带标签数据(输入 X + 输出 Y)** 训练,学 X→Y 映射(如分类、回归)。
-
无监督学习(Unsupervised Learning):用无标签数据,自动发现数据结构(如聚类、降维、异常检测)。
-
强化学习(Reinforcement Learning, RL):智能体(Agent)*与环境交互,通过*奖励 / 惩罚最大化累积回报(如 AlphaGo、自动驾驶)。
-
半监督学习(Semi-Supervised Learning):少量标签 + 大量无标签数据,提升模型性能。
-
迁移学习(Transfer Learning):把源领域预训练知识迁移到目标领域,加速训练、减少数据需求(如 BERT→医疗文本)。
-
自监督学习(Self-Supervised Learning):从数据本身自动生成标签(如句子填空、图像拼图),预训练大模型主流范式。
2.2. 模型训练与优化
-
训练(Training):喂数据给模型,迭代调整参数、降低损失、提升精度(圈内称 “炼丹”)。
-
推理(Inference):训练好的模型处理新数据、输出结果(侧重速度 / 低延迟)。
-
微调(Fine-Tuning):在预训练大模型基础上,用领域小数据二次训练,适配特定场景。
-
过拟合(Overfitting):模型死记训练数据,新数据表现差(泛化能力弱)。
-
欠拟合(Underfitting):模型太简单,训练 / 测试数据都表现差。
-
损失函数(Loss Function):衡量预测值与真实值误差,训练目标是最小化它。
-
梯度下降(Gradient Descent):优化算法,沿损失函数梯度反方向调整参数,逐步收敛到最优解。
3.深度学习核心架构
-
Transformer:2017 年 Google 提出,自注意力机制为核心,并行处理序列数据、捕捉长距离依赖,LLM 标配底座(如 GPT、BERT)。
-
CNN(卷积神经网络,Convolutional NN):图像 / 视频专用,卷积层提取空间特征(边缘→纹理→部件→整体),代表:ResNet、YOLO、ViT。
-
RNN/LSTM/GRU(循环神经网络):** 序列数据(文本 / 语音)** 专用,解决时序依赖;LSTM/GRU 缓解 RNN 梯度消失。
-
GAN(生成对抗网络,Generative Adversarial Network):** 生成器(造假)+ 判别器(辨假)** 对抗训练,生成逼真图像 / 视频(如 DeepFake、StyleGAN)。
-
MLP(多层感知器):全连接神经网络,至少 3 层,用于简单分类 / 回归。
4.大模型(LLM)专属名词
-
LLM(大语言模型,Large Language Model):千亿 / 万亿参数、海量文本预训练的 Transformer 模型,懂语言、能生成、会推理(如 GPT-4、文心一言、通义千问、豆包)。
-
参数(Parameter):模型可学习的权重 / 偏置,参数越多能力越强、算力需求越高(GPT-3:175B,GPT-4:~1.8T)。
-
Token(词元):LLM 处理文本的基本单位(≈0.75 汉字、1 英文单词),既是信息单位也是计费单位。
-
上下文窗口(Context Window):模型单次能理解 / 记忆的最大 Token 数(如 GPT-4:8k/32k,Claude 3:200k)。
-
提示词(Prompt):用户给 LLM 的指令 / 问题 / 输入文本,决定输出质量;** 提示词工程(Prompt Engineering)** 是优化 Prompt 的技术。
-
对齐(Alignment):让 LLM输出符合人类价值观 / 意图 / 安全规范(如 RLHF、SFT、DPO)。
-
RLHF(基于人类反馈的强化学习):用人类偏好数据微调 LLM,提升有用性、真实性、无害性。
-
SFT(有监督微调):用高质量指令 – 响应数据微调预训练模型,让它学会遵循指令。
-
Agent(智能体):能自主感知、决策、执行任务的 LLM(如 AutoGPT、OpenAI Clow),可拆解任务、调用工具、多步骤完成目标。
-
多模态(Multimodal):模型同时处理文本、图像、音频、视频等多种信息(如 GPT-4V、Gemini、文心一言 4.0)。
-
RAG(检索增强生成,Retrieval-Augmented Generation):LLM结合外部知识库检索,生成更准确、最新、可溯源的内容(解决 “幻觉”)。
-
幻觉(Hallucination):LLM生成看似合理但虚假 / 错误的信息(大模型通病)。
5.核心技术领域
5.1. NLP(自然语言处理)
-
词嵌入(Word Embedding):词汇映射到低维稠密向量,捕捉语义关联(如 Word2Vec、GloVe)。
-
BERT(双向编码器表示):Google 2018 年提出,双向预训练,擅长理解类任务(问答、分类、NER)。
-
GPT(生成式预训练):OpenAI 提出,单向自回归,擅长生成类任务(写作、对话、代码)。
-
NER(命名实体识别):从文本中识别人名、地名、机构名、时间等实体。
-
情感分析(Sentiment Analysis):判断文本正面 / 负面 / 中性情绪(舆情分析、评论挖掘)。
5.2. CV(计算机视觉)
-
图像分类(Image Classification):识别整张图所属类别(如猫 / 狗 / 车)。
-
目标检测(Object Detection):定位 + 识别多个目标(如 YOLO、Faster R-CNN)。
-
图像分割(Image Segmentation):像素级划分图像语义区域(语义分割、实例分割、全景分割)。
-
OCR(光学字符识别):从图像中提取文本(扫描件、身份证、车牌)。
5.3. 语音处理
-
ASR(自动语音识别):语音→文本(如讯飞听见、Whisper)。
-
TTS(文本转语音):文本→自然语音(如语音助手、有声书)。
6.算力与工程
-
GPU(图形处理器):并行计算芯片,AI 训练 / 推理主力(NVIDIA A100、H100)。
-
TPU(张量处理器):Google 定制 AI 芯片,专为 Transformer 优化。
-
算力(FLOPs):每秒浮点运算次数,衡量模型复杂度与硬件需求。
-
API(应用程序接口):AI 服务对外开放的调用接口(如 OpenAI API、百度千帆 API),方便开发者集成 AI 能力。
-
微调(Fine-Tuning):见前文。
-
蒸馏(Distillation):用大模型(教师)*训练*小模型(学生),小模型体积小、速度快、性能接近大模型。
-
量化(Quantization):降低模型参数精度(如 FP16→INT8),减少显存占用、提升推理速度、降低成本。
7.前沿与热点
-
AGI(通用人工智能):见前文。
-
超级智能(Superintelligence):超越人类最高水平的 AI(未来风险讨论焦点)。
-
AI 安全(AI Safety):研究防止 AI 失控、滥用、偏见、歧视的技术与伦理框架。
-
AI 伦理(AI Ethics):AI 开发与应用中的公平、透明、可解释、隐私、责任等伦理问题。
-
可解释 AI(XAI):让 AI决策过程可理解、可追溯、可验证(解决 “黑箱” 问题)。
-
AI + 科学(AI for Science):AI 赋能药物研发、材料科学、气候预测、基因编辑等科研领域。
-
具身智能(Embodied AI):AI拥有物理实体(机器人),在真实世界中感知、行动、学习(如特斯拉 Optimus、小米 CyberOne)。
8.高频缩写速查
-
AI:人工智能
-
ANI:弱人工智能
-
AGI:通用人工智能
-
ML:机器学习
-
DL:深度学习
-
NN:神经网络
-
AIGC:AI 生成内容
-
LLM:大语言模型
-
Transformer:自注意力架构
-
CNN:卷积神经网络
-
RNN:循环神经网络
-
GAN:生成对抗网络
-
NLP:自然语言处理
-
CV:计算机视觉
-
ASR:语音识别
-
TTS:语音合成
-
RAG:检索增强生成
-
RLHF:人类反馈强化学习
-
GPU:图形处理器
-
API:应用程序接口
夜雨聆风