今天大清早突然发布的 Claude Opus 4.7,还没上线多久,网上就已经骂声一片。最扎眼的槽点,是 token 先「通货膨胀」了。新版引入了全新的 tokenizer(分词器),同样一段文字,拆出的 token 数量比以前多出 1.0 到 1.35 倍。不少用户反映,还没聊几句,额度就见了底。后续,Claude Code 之父 Boris Cherny 也表示将提高额度来抵消这部分的影响。
但 token 膨胀还算小事。更让人哭笑不得的,是 Opus 4.7 那张嘴。它动不动「我就在这里,不躲,不藏,不绕,不逃,稳稳地接住你、翻译成人话、我太懂你这种感觉了,不是,而是」,一股浓烈的 ChatGPT 味扑面而来。平心而论,Opus 4.6 也有这个毛病,Sonnet 4.6 反而症状更轻。只是到了 4.7,这股腔调明显更浓,不懂好好说话的问题愈发突出。APPSO 之前也报道过,过于油腻的说话风格与 RLHF(人类反馈强化学习)有关。训练时,人类评审者倾向于给听起来顺耳、令人愉快的回答打高分,模型就学会了这套讨好人的腔调。这是一个关于AI 在取悦谁的问题。
但 Opus 4.7 让人关注的地方不止于此。token 越用越多,说明它在「想」得更多。只是那些浮夸的安慰腔调又让人怀疑,它想出来的东西,究竟算不算真的在思考,还是仅仅学会了一套让你感觉它在思考的表演方式。
这个问题,远比局限于 Opus 4.7 好不好用的命题要更深刻。而答案的线索,最先出现在让人最想不到的论坛:4Chan。