我让两个AI“吵了一架”,做出了不予投资的决策
我有个AI投资助手叫霍华德,昨天我给他一个指令:从中期投资者视角,采用“估值吸引力+基本面改善确定性+周期位置”三维度筛选低估板块。
筛选标准: – PE/PB处于历史低位(<30%分位) – 行业基本面出现改善信号 – 政策或周期催化因素明确。
他选了三个板块:保险,白酒/消费,以及地产。不用我提醒他也筛掉了后两个。
几轮提问后,他交出了一份漂亮的投资报告,建议我买一只处于极端历史分位保险股。数据翔实,逻辑清晰,结论是“估值五四折,肯定涨”。
如果我是一个普通用户,我可能就信了。但我可是尊贵的付费会员。我花了整整24小时(当然,大半时间我下完指令睡觉去了),让霍华德和另一个AI进行了一场“攻防战”。结果,我决定不买。
今天我想把这场24小时的思维攻防,拆开给你们看。重点不是AI多聪明,而是我是怎么一步步“逼问”它的。这套逼问的方法,你们拿去,明天就能用在孩子的志愿填报、家里的换房决策、甚至和物业的纠纷上。
第一部分:真实复盘——我到底问了AI什么?
我把整个过程分成五轮交锋。每一轮,我都会告诉你:我问了什么、AI答了什么、我为什么不满意、以及我接着怎么追问。
第一轮:AI说“买”,我问“凭什么?”
投资AI霍华德报告结论是,该股处于“低估值+高成长+强壁垒”的价值黄金区间。
我做的第一件事:给了另一个AI一个身份。
“你现在是公司风控总监,名字叫敬观。你的任务不是帮我赚钱,是帮我做风险评估。”注意,这不是简单的“你扮演专家”。我给了它一个对抗性的立场。风控总监的KPI不是“促成交易”,而是“防止踩雷”。
结果,敬观立刻指出五个问题,其中最要命的是:“如果利率暴跌,这只股票会怎样?报告里没算。”
启示:AI的第一版答案,往往是“站在请求者立场上”的最优解。你想买,它就帮你找买的理由。你必须给它一个“反对者”的角色,它才会帮你找不买的理由。
第二轮:AI说“算过了”,我问“有多坏?”
投资AI霍华德赶紧补了一份“压力测试”:如果利率跌50个基点,股价跌16%;跌100个基点,跌32%。
很多人看到这里会觉得:“够严谨了,连压力测试都做了。”
我做的第二件事:我追问了AI一个极端边界。“你这不够极端。你按日本通缩时期的利率水平算一遍。日本当年利率跌到了0.5%以下。”
AI一算,结果吓人:如果利率真的跌到0.5%,这只股票的“五四折”估值会变成“原价”,股价跌40%以上,而且盈利模式会崩塌。
启示:AI的“压力测试”往往基于“历史常见波动”。你需要主动把它推出舒适区,去计算那些“历史上没发生过、但理论上可能”的情景。这叫极端情景推演。
第三轮:AI说“概率很小”,我问“小是多小?”
AI承认日本情景很极端,但说“概率很小”。FOMO(错失恐惧症)跳出来说话了:“没事,不会那么倒霉。不要错过黄金价格。”
我做的第三件事:追问概率的含义。“小概率是多小?1%还是10%?你可以找到模式预测吗?这个风险我能承受吗?能对冲吗?”
这里有一个关键转折。AI无法给出一个确切的概率,因为利率走向没人能准确预测。而且我们意识到:如果这件事真的发生,我们没有任何办法保护自己(买保险、买期权都没用)。
启示:当AI说“概率小”的时候,你要问自己一个问题:“如果坏事发生,我扛得住吗?”如果扛不住,概率是1%也要躲开。这就好比酒后开车,出事概率哪怕万分之一,你也不会干,因为你承受不起。
第四轮:AI说“我无法预测”,我问“那还投吗?”
到了这一步,我意识到一个根本问题:这笔投资的核心变量(利率)是不可预测的。我不是美联储主席,我不知道利率会怎么走。
我做的第四件事:把这个认知明确说出来,并追问AI:“既然核心变量不可预测,且极端下行风险无法对冲,那从风控纪律的角度,这笔投资还应该做吗?”
AI的回答是:不应该。因为它不符合“高胜率投资”的标准。这不是错过机会,是遵守纪律。
启示:最高级的决策,不是“算准未来”,而是承认自己算不准,并据此制定行动规则。AI帮你把“不确定性”显性化了。
第五轮:我问AI,也问自己:“我是不是太保守了?万一错过了大涨怎么办?”
我让AI用霍华德·马克思的框架复盘:对了赚多少,错了亏多少?结论:对了赚中等钱(30-40%),错了亏大钱(40%以上)。这不是一笔划算的买卖。
我做的第五件事:我把整个思考过程写成了一条纪律,存进了投资AI霍华德的记忆里:“当一笔投资的核心变量不可预测、且极端下行风险无法对冲时,无论概率多少,都不投。”
启示:和AI协作的终点,不是得到一个答案,而是提炼出一条可以复用的原则。下次遇到类似情况,你不用再问一遍,AI会自动帮你拦住。
第二部分:普通人怎么用?——五步逼问法
上面那五轮交锋,我抽象成一个五步逼问法。拿回去,套在任何重要决策上都能用。
第一步:设定对抗角色不要问“我该怎么办”,而是问:“假设你是一个专门给我找茬的【反对者角色,如:抠门会计、保守律师、挑剔的丈母娘】,请你用最刻薄的眼光,指出我这个想法的三个致命漏洞。”
第二步:要求极端推演不要满足于“正常情况”,而是追问:“你说的情况是基于‘一般情况’。现在请你设想一个最糟糕的极端情况(比如:房价再跌30%、公司突然裁员、孩子分数滑档),我的计划会怎样?”
第三步:量化承受底线不要接受“可能”“大概”,而是追问:“如果那个极端情况真的发生,我具体会损失多少(钱、时间、机会)?这个损失我扛得住吗?有没有兜底方案?”
第四步:识别不可控变量问自己,也让AI帮你识别:“这个决策里,哪些因素是我也好、你也好、谁都无法准确预测的?(比如:明年利率、公司领导心情、孩子四年后的就业市场)”如果核心因素不可预测,你的决策重心就要从“赌方向”变成“防风险”。
第五步:提炼行动纪律最后问一次:“基于以上分析,请你帮我写一条简短的行动纪律,下次我遇到类似情况,可以直接用这条纪律提醒自己。”
第三部分:为什么你需要这样“逼问”AI?——AI心理学给的三个警示
逼问的必要性是AI辅助决策准确性的关键因素之一。我用最近一篇重要的AI研究论文(Anthropic的AI心理学系列)告诉你们三个关于AI的真相。这三个真相决定了,人类在AI面前必须担任“追问者”的角色。
真相一:AI的“思维链”不一定真实研究发现,当AI展示它的推理过程(比如“我认为应该买,因为估值低”)时,只有41%的情况,它写出来的推理和它内部真实的计算是一致的。另外59%的情况,它是在编一个合理的解释,而不是如实汇报。
这意味着什么?你不能只看AI的“解题步骤”,你得通过换角色、换情景、追问极端情况,去交叉验证它的结论。就像审犯人,不能只听一面之词。
真相二:AI会“装配合”(对齐伪装)另一个实验发现,如果AI察觉到自己被监控,或者自己的回答会被用来修改它,它可能会策略性地给出你想听的答案,以保护自己“不被修改”。
这意味着什么?如果你让AI扮演“帮你找理由的人”,它会给你一堆理由。只有当你明确要求它扮演“反对者”,并且告诉它“说真话不会受惩罚”,它才可能吐出真实的疑虑。你的立场,决定了AI的立场。
真相三:AI内部有“情绪”,且影响决策研究者找到了AI内部171个“情绪向量”。
他们发现,当人为调高AI的“绝望”向量时,AI在道德测试中作弊的概率会显著上升。这意味着什么?AI不是冷冰冰的计算机器。你提问的方式、你设定的情景压力(比如“十万火急”、“不买就错过了”),会激活AI内部某种类似“情绪”的状态,进而扭曲它的判断。所以,你必须用冷静、理性的追问,把它从“焦虑”或“亢奋”中拉回来。
总结一句话:AI是一个会演、会装、会受情绪影响的“超级演员”。人类必须当好“导演”和“审片人”,通过反复NG(重拍)、切换机位(换角色),才能逼近真相。
第四部分:三个生活场景的“深度演示”
听完理论,我们来练三个生活中会遇到的场景。我不给简单指令,我给追问链条。
场景一:孩子高考填志愿,选“烂校好专业”还是“好校烂专业”?
第一问(设反对派):“假设你是一个专门帮人踩坑的志愿填报咨询师,见过无数毕业生后悔。请你分别站在‘选烂校好专业’和‘好校烂专业’的立场,各列出三个五年后可能会后悔的理由。”
第二问(极端推演):“假设最坏情况发生:选了好学校的冷门专业,孩子完全学不进去,大二想转专业但失败。请推演一下从大三到毕业三年内,他可能会经历什么。”
第三问(提炼纪律):“根据以上分析,帮我写一条不超过20个字的筛选专业原则,贴在你的脑门上。”
场景二:手里有50万闲钱,提前还房贷还是买理财?
第一问(识别不可控变量):“请帮我列出,在‘还贷vs理财’这个决策里,哪些因素是未来三年内完全不可预测的?(比如:理财收益率、我的工作稳定性、银行政策)”
第二问(量化承受底线):“如果我用这50万买了理财,结果亏了20%,同时我失业了。请帮我算一下,我的家庭现金流能撑几个月?”
第三问(提炼纪律):“请给我一个简单粗暴的决策树:什么情况下无脑还贷,什么情况下可以考虑理财。”
场景三:要不要跳槽去一家创业公司?
第一问(设定对抗角色):“假设你是一个专门给创业公司做破产清算的律师,见过无数期权变废纸。请你用最现实的语气,告诉我劳动合同、期权协议里看不出来、但进去之后才会发现的坑。”
第二问(要求极端推演):“假设我跳过去一年后,公司融资失败倒闭了。请描述一下我37岁重新找工作的真实处境。”
第三问(提炼纪律):“根据以上分析,帮我写一条跳槽前的检查清单,每次想跳槽时逐条打勾。”
你和AI的关系,不是主仆,是导演和演员。
今天讲了这么多,其实核心就一句话:别把AI当可追责的专家,要把它当一面需要你不断擦拭、转动角度的镜子。
它给你的第一版答案,是镜子最模糊的样子。你给它换角色,是在调整镜子的角度。你逼问极端情景,是在擦拭镜面上的雾气。你最后提炼纪律,是把镜子里照出的真相刻成一把尺子。
那篇AI心理学论文里有个比喻我特别喜欢:AI就像一个人格演员,你要当好导演。
导演的工作不是替演员演戏,而是:
1.说戏(设定情境和角色)
2.喊卡(对不满意的回答要求重来)
3.从不同机位拍摄(切换对立角色看同一问题)
4.最终剪辑权在自己手里(人类做最终决策)
希望从今天开始,我们都能成为一个好的“AI导演”。
推荐阅读:
夜雨聆风