AI进了公司谁兜底?
上个月跟一个做SaaS的朋友吃饭,他跟我说了句话,我记到现在。他说他试用了好几款企业AI产品,功能演示的时候一个比一个惊艳,但一到真要把AI接入公司系统、让它动手操作真实数据,老板的第一句话永远是:“它要是搞错了怎么办?”
这个问题很实在。AI写错一篇文案、算错一组数据,最多重来一遍。但如果AI删错了数据库、发错了审批、把敏感信息传给了不该看的人,谁来兜底?这不是技术问题,是治理问题。
3月17日,钉钉发布悟空的时候,陈航用了一个“安全园区”的比喻。他说很多AI产品就像把企业数据扔在开放的公共空间里跑,看着热闹,但随时可能出事。钉钉想做的是有门墙、有门禁的企业数字园区。怎么做到的?我仔细看了发布会的技术讲解,悟空的底层逻辑是先把“边界”建好——什么意思呢?就是本来谁能看什么数据、能动哪些系统,现在AI也按同一套规则来。权限不是后加的,是写在代码里的。管理员还能给AI单独分配权限、控制范围、设置审批流。AI做的每一步操作,都有审计日志可查,越权的事根本做不了。
飞书Aily这边,3月19日发布时也强调了安全能力。飞书官方的说法是:Aily的权限体系与用户本人严格一致,操作全程可追溯,敏感操作需人工确认。Aily技能库里的技能须经飞书安全审核才能上架使用。飞书还开源了OpenClaw插件,支持企业级的安全管控。这些设计看得出来也花了不少心思。
区别在哪?我理解是底层架构的差异。悟空是在做CLI化改造的时候就把安全嵌进去了——每一条指令都带着权限、会话、授权,整个体系的上下文都跟着走。Aily更多是在现有飞书架构上叠加安全管控。打个比方:悟空像装修时就把水电线路埋进墙里,Aily像入住后再走明线。
两种做法都能用。但如果你的公司对数据合规要求极高,或者你们所处的行业(比如金融、医疗、政务)有严格的监管要求,你可能就得想一想:你希望AI的安全是内建的,还是后加的?这个问题的答案,会直接影响你能不能放心地把AI放进业务流里。
#企业安全 #钉钉悟空 #飞书Aily
夜雨聆风