关于AI幻觉
Anthropic 近日发布新一代大模型 Claude 4.7(Opus 4.7),主打“降低幻觉率”和提升复杂任务处理能力。然而,模型上线后迅速在开发者社区引发分歧:官方强调“更诚实”,部分用户却认为“错误更明显”。
据官方介绍,Claude 4.7通过增强自我校验机制和推理能力,将“诚实率”提升至约92%,并减少迎合用户(sycophancy)的倾向,重点优化长任务一致性与自动化执行能力。
但多家外媒与开发者反馈显示,新版本在实际使用中出现拼写错误、事实偏差甚至内容“编造”等问题。有用户指出,在简历修改、技术解释等场景中,模型会生成未经验证的信息。此外,新增的“自适应推理”机制虽然提升了复杂任务能力,却被批评为响应更慢、推理过程更冗长且稳定性不足。
与此同时,用户还反映模型的token消耗明显增加,在付费环境下放大了使用成本与体验落差。
分析认为,此次争议背后是模型设计目标的转变。Claude 4.7更侧重“代理式任务执行”而非单轮问答,在推理链更长的情况下,错误路径也随之增加。此外,出于安全考虑,部分高风险能力被限制,可能导致模型在信息不足时生成替代性解释,从而表现为“新型幻觉”。
业内人士指出,这一现象反映出AI从“回答问题”向“执行任务”演进过程中的典型矛盾:评价标准仍停留在答案准确性,而模型能力已转向复杂行动能力。
一

二

一个平凡的父亲,某天毫无征兆地造了一只独木舟。他既没有辞职去环球旅行,也没有投河自尽,而是划向河心,从此既不回北岸的家,也不去对面的南岸。他就那么没日没夜地漂在水上,不出声,不干活,不跟任何人交流,甚至连家人送去的食物也只是默默取走。家人在岸上经历了生老病死、婚丧嫁娶,那是属于社会规则的“第一条岸”和“第二条岸”;而父亲,他把自己活成了一个无法被任何常识解释的“Bug”,永远悬浮在那个被称为“第三条岸”的虚无地带。
三
四
五
六
最近文章:
夜雨聆风