AI最可怕的地方,可能不是它会写作业。
而是它让人开始不相信你是不是自己写的。
这句话听起来有点绕,但普林斯顿大学已经给了一个很直白的答案。
The Verge 5月12日援引 The Daily Princetonian 报道,普林斯顿大学教师会议通过新规:从7月1日起,所有线下考试都要安排教师监考。
这件事放在普通大学里,可能没人觉得稀奇。
考试有老师监考,不是很正常吗?
但普林斯顿不一样。
它从1893年开始实行荣誉考试制度。简单说,就是考试时老师可以离开考场,学生靠荣誉准则自我约束,也有责任举报作弊行为。
这个传统延续了133年。
然后,被AI时代撞了一下。
撞得不轻。
普林斯顿相关政策提案里说得很清楚:AI工具和个人电子设备让作弊变得更难被同学发现,也更难被同学举报。以前一个人抄小抄、偷看资料,旁边人可能看得出来。现在一个小设备、一个AI工具,就能把作弊藏得更像正常操作。
这才是问题的核心。
AI没有只是多给学生一个工具。
它改变了作弊的样子。
过去学校相信学生,至少还有一个前提:违规行为大多能被看见。
现在不一样。
一个人到底是在思考,还是在问AI?
一段答案到底是自己写的,还是模型润出来的?
一次考试到底是能力证明,还是工具熟练度展示?
这些问题变得越来越难回答。
所以普林斯顿做了一个很现实的决定:把老师请回考场。
我看到这条新闻时,第一反应不是“国外大学也不行了”。
而是有点无奈。
因为这件事特别像AI时代的一个缩影:
技术越来越强,人与人之间的默认信任却越来越贵。
你说自己写的,别人不一定信。
你说自己没用AI,别人也不一定信。
你说这是你的能力,别人会先问一句:工具参与了多少?
这对学生当然是压力。
但更大的影响,可能不只在学校。
学校只是最早被撞到的地方。
以后职场也会遇到同样的问题。
你交上去的一份方案,到底是你想出来的,还是AI拼出来的?
你面试时写出的代码,到底是你的能力,还是你背后有工具提示?
你远程办公完成的报告,到底代表你的判断,还是代表你会问模型?
老板会怀疑,老师会怀疑,客户也会怀疑。
听起来很烦,但这就是现实。
AI把“产出”变便宜了,也把“证明这是你产出的”变贵了。
这才是真正的变化。
以前一个人写得好,大家默认他有水平。
以后一个人写得好,大家可能先问:你用了什么工具?
以前考试分数高,学校默认你学得好。
以后考试分数高,学校可能要确认:你有没有在不该用工具的时候用了工具?
以前一份简历写得漂亮,HR可能觉得你表达能力强。
以后简历太漂亮,HR反而会怀疑:这是不是AI模板?
这不是杞人忧天。
The Daily Princetonian 的报道里还有一组数据很刺眼:2025年一项面向500多名普林斯顿毕业生的调查中,29.9%的受访者承认自己曾在作业或考试中作弊;44.6%知道荣誉准则违规但没有举报;只有0.4%表示曾举报同学。
你看,问题不只是AI。
AI只是把原来就存在的漏洞放大了。
学生不想举报同学,因为害怕关系破裂、被网暴、被羞辱。
学校不想只靠学生互相监督,因为这个机制越来越扛不住。
于是最后只能回到最传统的方法:安排老师监考。
很讽刺。
技术走到2026年,制度却退回了更原始的办法。
不是因为学校喜欢监考。
是因为信任不够用了。
这件事对普通人有什么启发?
第一,以后“会用AI”不稀缺,“知道什么时候不能用AI”才稀缺。
很多人现在还停留在一个阶段:怎么用AI写文章,怎么用AI做PPT,怎么用AI写代码。
这些当然重要。
但真正能拉开差距的,可能是边界感。
什么时候可以让AI辅助?
什么时候必须自己判断?
什么时候可以借工具提高效率?
什么时候必须证明这是自己的能力?
这会变成新的基本素养。
第二,教育和职场会越来越重视“过程证据”。
只看结果不够了。
老师可能要看草稿、思路、现场表达。
公司可能要看你怎么拆问题、怎么提问、怎么判断取舍。
客户可能不只要成品,还要你解释为什么这么做。
因为AI可以把结果做得很像样。
但它替不了你承担判断。
第三,真正值钱的能力会从“会产出”转向“能负责”。
AI可以写一段合同初稿,但律师要对风险负责。
AI可以写一份市场报告,但负责人要对决策负责。
AI可以写一篇文章,但账号运营者要对事实、版权、平台规范负责。
这就是为什么普林斯顿这条新闻不只是学生的事。
它其实提醒所有人:
AI越强,人类越要证明自己不是只会复制结果。
以前我们担心AI抢走工作。
现在看,AI先抢走的可能是信任。
你交出一个完美答案,别人未必更相信你。
有时候反而更怀疑你。
所以未来的竞争,不只是比谁用AI更快。
还要比谁更能让别人相信:
这个判断是我的。
这个责任我能担。
这个结果不是随便复制来的。
普林斯顿把老师请回考场,看起来像一个保守决定。
但我觉得它挺诚实。
它承认了一件很多人不愿意承认的事:
AI时代,信任不能再靠口号维持。
它需要新的规则、新的证据、新的边界。
这可能才是AI真正改变世界的方式。
不是每个人都失业。
而是每个人都要重新证明:
你到底是谁,你到底会什么,以及哪些东西真的是你自己做出来的。
最后,我想再补一个容易被忽视的角度:知识平权的另一面。
过去大家常讲,AI让知识变得更平等。任何人只要会提问,就能获得以前只有精英才能接触的信息。能写代码、能写论文、能分析数据、能翻译文献。听起来很美。
但普林斯顿这件事提醒了我们:知识平权是一回事,能力证明是另一回事。
AI可以帮你拿到知识,但它代替不了你证明——这个知识是你理解了的。更代替不了你证明——这个判断是你做出来的。
换句话说:AI降低了获取知识的门槛,但提高了证明自己掌握了知识的门槛。
这很讽刺。一个工具让你学东西更容易,同时让你“让别人相信你学会了”变得更难。
知识平权的红利,最后被信任成本吃掉了很大一块。
这不是说要放弃AI。而是说,未来一个人的竞争力,可能不只是“会不会用AI”。更取决于:你能不能在被怀疑的时代,让别人相信你是真的;能不能在被质疑的时候,拿得出证据证明这是你自己的能力;能不能在AI遍地跑的环境里,依然让人愿意为你这个人下注。
这才是普林斯顿这条新闻,对普通人最真实的提醒。
技术越强,证明“你是你”越贵。
文章申明:
本文参考 The Verge 2026年5月12日 新闻汇总、The Daily Princetonian 关于普林斯顿线下考试监考新规的报道及其引用的校方政策提案。本文不构成教育或法律建议,为个人观点和思路。
夜雨聆风