用AI写完一份东西,你是什么感觉?
大多数人的状态是:看起来挺像回事,但心里没底。
不确定数据对不对。不确定引用能不能查到。不确定有没有说偏。
这种不踏实,其实不是你的问题。
让同一个AI又写、又自查,它的盲区永远是自己的盲区。问题出在结构上。
微软上周做了一件事
3月30日,微软更新了Office里的Copilot。
改动不小。
以后你用Copilot做深度研究、写分析报告,GPT负责生成初稿,Claude会自动介入审查——来源可不可靠,内容有没有遗漏,关键结论有没有对应的证据。
这是默认开启的。不需要你设置任何东西。
微软的说法是:我们要解决的不是让模型更聪明,而是让AI系统更可信。
这不是产品更新,是思路变了
过去两年,AI竞争的逻辑是谁的模型更强。
这次微软给出的答案是:一个模型不够,换两个互相盯着。
学术界几百年前就在这么做了——同行评审。一篇论文,不能只靠作者自己说好。得有独立的人来审。
现在微软把这套逻辑搬进了AI系统。
GPT写,Claude审。将来还会反过来——Claude写,GPT审。
两个模型,背后是两家公司,思路不同,训练数据不同,盲区也不一样。
互审,才能互补。
对你意味着什么
如果你是职场人,日常用Office出报告、做分析、整理资料——以后AI给你的东西,经过了两道关,会比以前可靠一些。
如果你是企业主或者管理者,正在考虑把AI用进日常工作流——这个信号很重要:AI辅助工作,正在从"能用但不太敢信",走向"可以放心交出去一部分"。
当然,这个功能现在还在测试,先对企业用户开放。个人用户什么时候覆盖,还没说。
但方向已经定了。
还有一个细节
这次还有一个叫"Council"的模式:同一个问题,GPT和Claude各自写一份,然后第三个AI来分析两份报告的异同——哪里一致,哪里有分歧,各自的逻辑是什么。
不追求一个答案,而是把不同角度都摆出来,让你自己判断。
做重要决策的时候,这个比直接要结论更有用。
AI正在变得更系统,而不只是更聪明。
夜雨聆风