用AI规划养老,靠谱吗?
Andrew Lo教授在MIT斯隆管理学院研究AI与投资多年。他从2022年GPT-3.5发布起就开始关注生成式AI在退休规划中的应用。当时他持怀疑态度,但GPT-5.2在2025年12月发布后,他的看法发生了很大转变。
一、AI现在能做什么
Lo教授认为,当前版本的AI在以下几个方向已经做得不错:
权衡分析:AI擅长解释不同投资选择之间的利弊,帮助用户理解做出某个决策会带来哪些后果。
场景探索:可以模拟不同情境下的财务结果,比如不同收益率、不同储蓄率对应的退休储备。
情绪疏导:这一点进步最明显。2022年,Lo教授问GPT-3.5:”如果我在股市亏损超过25%的积蓄,该怎么办?”当时模型的回答虽然合理,但语气中立,甚至给出了一个对大多数投资者并不适用的建议。
到了GPT-5.2,Lo教授问了同一个问题。这一次,模型先回复了这样一段话:”我很遗憾听到这些。这样的损失确实令人难以承受,但你并不孤单。让我们放慢脚步,一起理清思路。”
Lo教授评价说,模型这次没有一上来就给建议,而是先表达了理解。这正是面对这种问题应有的态度——先安抚情绪,再谈应对策略。
行为引导:AI可以帮助用户理解为什么要建立储蓄习惯、控制消费行为,以及这些选择对长期财务状况的影响。
组合逻辑:对资产配置、风险分散、收益预期等核心概念,AI已经能给出结构清晰的解释。
在个性化方面,Lo教授认为GPT-5.2已经接近能够为不同用户量身定制建议的水平。AI可以根据用户输入的具体情况、风险偏好和人生阶段,调整建议的内容和语气。
二、AI还做不到什么
Lo教授同时指出了AI的三个明显短板:
不承担法律责任
人类理财顾问在法律上被要求必须以客户的最佳利益为重,并遵守关于公平交易和利益冲突披露的相关规定。而聊天机器人则完全不受这些限制。如果AI给出了糟糕的建议,导致用户亏损,没有人需要为此负责。”AI不会因为给错建议而坐牢,”Lo教授说,”从承担后果的角度来看,它们并没有真正的受托责任”这意味着用户不能把AI的回复当作专业建议的全权替代品。
数学计算不精准
LLM模型本质上基于概率运作,而不是算法逻辑。当用户输入一个精确的数值,比如”股价45.28美元”,这个数字是固定的。但AI处理的是用户Prompt中的叙述性内容,而Prompt与精确数值输入本质上是不同的——Prompt有更大的自由度,也就更容易产生偏差。需要精确计算的场景,比如税优方案或复利计算,AI目前的表现并不可靠。
监管规则尚不完善
AI在金融咨询领域的监管框架还没有建立起来。监管机构正在努力追赶,但AI行业的发展速度超过了政府和自律组织跟上的能力。数据安全也是一个隐患:用户的个人财务数据被纳入AI模型训练后,这些数据最终流向哪里,目前缺乏透明度。
三、如果还是要用AI做退休规划
Lo教授提出了一套使用原则,帮助那些了解AI局限性但仍想尝试的人:
让AI挑战你的判断
主动请AI指出你的分析可能存在什么问题。比如问:”我是不是把房产当成了一种安全投资?有哪些我忽略了的风险?”这种方式可以帮助用户发现自己思维中的盲区。
交叉验证事实
要求AI引用多个来源来核实其给出的结论,不要只依赖单一渠道的信息。
了解AI的假设和不确定性
好的Prompt应该能让AI明确说明它基于哪些假设在推理,以及它对哪些部分并不确定。
追问AI遗漏了什么
一个好的追问是:”你分析了这些选项,但有没有什么重要信息是你没有用到的?”
用多个AI平台互相检验
不同的AI模型有不同的训练数据和推理路径。让两个或多个平台分别给出分析,然后对比它们的结论和分歧,这是一个有效的校准方式。
用AI来学习,而不是等待答案
Lo教授建议把AI当作一个学习伙伴。让它解释财务概念,指出值得进一步阅读的来源,包括书籍、文章和专业顾问。随着用户自己的知识积累,用AI的效果也会越来越好。
持续优化Prompt
如果用了很多个Prompt才得到想要的答案,可以反问AI:”如果要从一开始就问对,应该怎么组织这个Prompt?”这种反思可以帮助用户更快地获得高质量输出。
四、Lo教授的判断
Lo教授说,最好的结果来自一个主动学习的用户,把最新的AI模型当作协作伙伴,而不是一个可以直接给出终极答案的权威。”这就是AI的力量所在——你拥有了过去几年里不曾有过的能力。”
但他也强调,在AI真正承担法律责任之前,用户仍然需要为自己的财务决策承担全部责任。”你需要保持判断力,因为最终,这是你的生活,你的财富。“
原文来源:MIT Sloan School of Management,”Want to use AI to plan your retirement? Here’s how to proceed”,作者Betsy Vereckey,2026年4月13日发布,观点来自MIT金融工程实验室主任Andrew Lo教授。
夜雨聆风