乐于分享
好东西不私藏

AI 概念 1: LLM

AI 概念 1: LLM

AI 概念 1: LLM

90%的AI项目失败,因为PM没看懂LLM的本质
技术评审会上,算法同事说了一堆LLM、Transformer、Attention,你全程点头但一个字没听懂。不是你笨,是这东西被讲复杂了。
LLM的本质就是一个文字接龙机器。给它一段话,它预测下一个最可能出现的词,然后循环往复。这个简单机制决定了三个硬约束:

三个硬约束

概率驱动:LLM不知道”苹果”是水果还是手机,只知道在特定上下文中后面最可能跟什么词
数据即天花板:模型知识完全来自训练数据,不知道的会编造答案
记忆有限:上下文窗口限制每次处理的信息量,会”忘记”最早的内容

生活类比:博学但健忘的图书管理员

想象一位读过图书馆所有书的管理员,能根据前几个词推测整句话。但他有两个缺陷:

无法记住昨天的新鲜事(训练数据截止到2023年1月)
深入讨论时会忘记起点(上下文窗口限制)

LLM不能做什么?(7大局限性)

缺乏真实理解:只是模仿对话模式,不懂深层含义
事实不保证:会产生”幻觉”,编造看似合理的答案
缺乏常识:知道”水往低处流”,但不懂倒水会洒
逻辑不严谨:数学证明可能跳过关键步骤
长期记忆难:每次对话都是全新开始
信息滞后:知识在训练完成时冻结
偏见风险:放大训练数据中的社会偏见

关键认知
人们常高估LLM能力,低估使用难度。ChatGPT的流畅对话背后,是数千亿参数的复杂计算和精心设计的Prompt工程。

产品启示
回归本质:先问”用户需要什么”,再想”能用LLM做什么”
系统思维:LLM只是组件,需要完整工程架构支持
保持理性:在技术变化中坚守价值创造初心

中国香港,4分钟前,