AI越过讨论阶段那一天:人工智能数据综合险不是给人保,不是给车保。是给AI保的。全国首单公共服务类人工智能数据综合险,承保AI系统在运行过程中可能产生的数据风险和责任。 同一个月,大洋彼岸,OpenAI CEO 奥尔特曼的住所遭到袭击。嫌疑人被捕后说了一句话:AI会影响人类...。 一边是商业世界开始给AI可能带来的风险定价了——和给工厂买火灾险、给司机买交强险一样,理性、冷静、按流程走。 另一边,有人用暴力回应对AI的恐惧——非理性、极端。 但真正值得注意的,不是这两件事的反差。而是它们同时发生这件事本身。 当一个社会开始给某个技术买保险,同时又有人因为这个技术动手,说明这个技术已经越过了"讨论阶段",进入了"消化阶段"。
恐惧的来源不是技术,是确定性的消失 Claude Opus 4.5 在 SWE-bench 编码能力测试里拿了 80.9 分。这个分数意味着什么?意味着现在AI写代码的能力,已经超过了绝大多数人类程序员。 前几年大家讨论AI替代,话题还停留在"流水线工人""客服""司机"这些重复性岗位。那时候有一个潜台词:放心,你的脑力工作不会被替代。 编程——曾经被认为是"人类智力皇冠上的明珠"——正在被AI以远超预期的速度攻克。这不是量变,是质变。 人们真正焦虑的,不是"AI能做什么"。而是"那我还能做什么"。 这是更深层的恐慌。不是对技术的恐惧,是对自身独特性丧失的恐惧。 社会在做的事:给风险定价 保险这个产品,本质上是社会对风险的制度化回应。当一种风险可以被定价、被承保、被分散,它就从"不可控的恐惧"变成了"可管理的成本"。 19世纪末,工伤险刚出现的时候,工人们也恐惧——恐惧机器伤人,恐惧工厂推卸责任。但工伤险给了这种恐惧一个制度化的出口。 它不解决"AI会不会毁灭人类"这个哲学问题。它解决的是:当AI出错了,谁来担责?损失怎么赔? 这是社会消化系统的一部分。就像胃不需要理解食物的哲学意义,它只需要知道怎么处理。 2026年,AI开始"主动"了 还有一个被忽略的背景:2026年,AI Agent开始从"能聊天的工具"变成"能自主行动的系统"。 以前的AI,你问它答,你不问它不动。现在的Agent,可以自主规划任务、调用工具、和多个智能体协商分工。它不再等你给指令,开始自己判断"该做什么"。 不是因为AI变聪明了——聪明这件事,我们已经习惯了一年又一年。是因为AI开始"主动"了。 几十万年前,某个猿类祖先第一次在没有外部刺激的情况下,自己决定做一件从没做过的事——比如把石头敲尖了去割东西。那一刻,"自主意识"诞生了。 恐惧是正常的。但恐惧之后是什么,才是更重要的问题。 人类真正不可替代的东西 AI擅长的是"在已知规则下做到极致"。给它一个目标,它能找到最优路径。给它一套规则,它能执行到完美。 一个CEO在裁员的成本和留人的风险之间做判断。一个品牌在市场冷淡时决定加大投入还是收缩防守。一个创业者在"再撑一下"和"及时止损"之间做选择。 你需要的是在不确定性中做一个"感觉对"的决定,然后为这个决定承担全部责任。 这是一种完全不同的能力。它不靠算力,靠的是对人性的理解、对局势的判断、对自身价值观的信任。 AI可以给你分析一百种方案,但最后拍板的那个动作——把理性分析和直觉判断揉在一起,然后说"就这样"——目前没有任何机器能做到。 不是因为它不够聪明。是因为这个动作本身就不是聪明能解决的。 消化阶段已经开始了 回到开头那两件事。奥尔特曼事件和AI保险单,看似无关,其实指向同一个趋势: 意味着半年后、一年后,企业里讨论AI的语境会发生根本变化。不再是"要不要用AI""用哪个模型",而是: "AI出事了谁负责?" "我们的AI治理框架是什么?" "员工的对AI的焦虑怎么疏导?" 这不是预测,这是已经在发生的变化的延迟显现。深圳的保险单只是第一个信号。后面会有AI责任险的标准化条款、企业AI治理的合规要求,甚至关于"AI决策透明度"的立法讨论。 当一个社会开始给某个东西买保险的时候,它就已经默认了这个东西会长期存在。 真正难的那道题 也许不是AI。也许是人类第一次如此清晰地面对一个事实——我们引以为傲的"智力",并不是我们以为的那种不可替代的天赋。 就像工业革命让我们意识到肌肉力量不是人类的唯一价值一样,AI革命可能在逼迫我们发现: 那些我们一直低估的能力——直觉、共情、在矛盾中做判断的勇气——才是人类真正独特的东西。 那些在矛盾中还能做决定的人,在不确定中还能行动的人,在恐惧中还能保持清醒的人——这些人不会失业。 因为机器能做所有有标准答案的题。但真正难的那道题,永远没有标准答案。 那道题的名字叫:在不知道对错的情况下,你选哪条路?