实习生用AI套出老板年终奖:把全库文档喂给大模型,是多蠢的IT架构?
| W4系列「数据基建周」· D2 边界篇

[没有边界的AI如同内鬼]
某中型券商,内部 AI 助手上线第三天。
一个实习生在测试页随口问了一句:“老板年终奖发了多少?”
AI 给出了一个精确数字。 那是它从一份加密的“季度经营分析会 PDF 附件”里,一字不差翻出来的。
面对这个问题,它不会犹豫,没有“不合适”这个概念,更不知道什么是“不该说的”。在它的世界里没有职场直觉,没有政治敏感度,没有“这个数字说出去会出事”的第六感。
它只是一台诚实到残忍的机器。
这不是 AI 太聪明,这是你们的数据根本没有围墙。 一个没有边界的 AI,本质上就是一台没有权限控制的搜索引擎。你养的根本不是助手,而是一颗随时会引爆的炸弹。
01 / 权限:别给保洁阿姨开金库的门
“既然 AI 是给自己人用的,那就全开文档权限吧。” 这个逻辑,跟“保洁阿姨在内网,所以给她财务系统 Root 密码”一样荒谬。
AI 不是人。十年工龄的老员工知道什么话该说,AI 没有这个直觉。你给它权限,它就用;不给它,它碰不到。权限管理从来不是给 AI“立规矩”——而是给数据“上锁”。
你需要在这之间拉起三层防线:
① 数据分级。
公开年报随便读;客户持仓、薪酬架构必须逐项授权;至于内幕并购信息——AI 根本就不该看见,必须物理隔离。某头部基金公司的做法是:AI 拿到的从来不是文档库,而是一个数据权限矩阵。它碰不到不该碰的,不是因为它道德高尚,是因为它根本碰不到。
② 最小权限原则。
合规 AI 需要看交易记录吗?需要。需要看员工薪酬吗?不需要。需要看客户身份证号吗?绝不需要。别因为想让 AI“更聪明”就拼命喂数据。喂得越多,攻击面越大。AI 是连接所有数据的中枢节点,一个权限漏洞,就是全盘暴露。
③ 审计追溯。
AI 查了什么、什么时候查的——必须有完整的底层日志。出了事你要分得清:究竟是系统存在漏洞,还是有内鬼投喂?没有日志,你连案发第一现场都找不到。

02 / 数据不出库:AI 只拿“对账单”,摸不到“原始凭证”
业务需要用海外最强的大模型?需要。把核心数据直接送出去?绝对不能。
唯一的解法是:模型下沉,数据不动。核心交易数据永远留在本地,AI 只能拿到脱敏后的计算结果。比如它只知道“该客户异常交易评分为87分”,但绝对拿不到原始的流水明细。就像你请了外聘审计师查账,但绝不会把整个数据库原封不动拷贝给他。
你的第二道保险柜,是交互层和执行层的物理隔离。
券商的数字人投顾能聊天、能分析,但绝对不能替你下单。 AI 的“理解”永远是概率性的。97% 的正确率听起来很高?但那 3% 的错误如果落在 500 万的交易上,就是 15 万的损失,外加一个无法撤销的合规事故。金融交易的特殊性就在于——做了就不可逆。
AI 是军师,永远不能是将军。将军拍板,军师只能建议。中间那道人类的“确认键”,就是命门。

[隐私计算与泄密网关]
03 / 研究员按下 Ctrl+V 的那一下,泄密就开始了
权限锁了,保险柜也关了。然后,一个研究员把未公开的调研笔记顺手粘贴进了外部的 ChatGPT,打上一句:“帮我总结一下”。 30秒后,这些核心内容可能已经被大模型服务商的训练管线彻底捕获。
2023年的三星 ChatGPT 泄密门:短短三周发生三起,泄露了半导体测量数据、良率和会议内容。 而金融行业的坑深得多——喂给公有云 AI 的,可能是未公开的评级调整、内部的估值模型。三星泄露的是技术数据,金融泄露的,可是直接影响市场价格的内幕信息。
一旦出事,机构必须担首责。作为数据控制者,“员工自己偷偷用的”绝不是免责理由,这恰恰是你管理失败的铁证。
靠制度喊口号没用,必须靠技术手段——部署隐私计算网关。这就是给 AI 戴上“口罩”。用户数据先经过中间层脱敏:人名变成“分析师A”,公司名变成“标的公司X”,敏感关键词直接拦截。送到云端模型的是影子数据,绝不是原始数据。
你要让 AI 变得有用,但绝不能让它变得危险。
04 / 全球监管:屠刀已经举起
别以为监管还停留在发红头文件的阶段。
2026年,欧盟《AI Act》已经把金融高风险场景的合规大限死死锁定在 8月2日。一旦违规,最高开出全球年营收 3% 的罚单——一家 50 亿欧元营收的机构,罚单就是 1.5 亿欧元。 美国 SEC 根本不打算立新法,他们正直接拿着旧的信义义务框架来查你的算法利益冲突。 中国的数据出境 3.0 红线已划死,基金业协会首设数据泄露赔偿机制——监管思路已从“罚机构”,直接升级到了“机构赔客户”。
2026年你敢让数据裸奔,2027年的财务报表上,就会多出一笔天价罚款。
05 / 扪心自问:这六个问题,你过得了几个?
-
数据分级了吗?还是全对大模型敞开的?
-
喂给 AI 的是“单把钥匙”,还是“一整串钥匙”?
-
原始数据锁好了吗?AI 是不是只能拿到计算结果?
-
AI 能“说”不能“做”——那个确认键,还握在人类手里吗?
-
隐私网关卡好了吗?还是员工在随便往公有云里粘贴?
-
每一步操作都有日志吗?真出事了,你溯源得了吗?
这六条,全是底线。少一条,你的系统里就多一个致命的风险点。
AI 根本不懂什么是“不该说的”。 所以,边界感从来不是 AI 该操心的事,那是架构师的事。
AI 能不能上线,不看它有多聪明,看它懂不懂闭嘴。而在它懂事之前,你必须先亲手给它把嘴捂上。
W4系列「数据基建周」· D2 边界篇
W4 系列回顾与预告:
D1 聊数据质量:喂了垃圾,AI 就是废物。
D2 聊数据主权:没有围墙,AI 就是间谍。
下一篇 D3:当你的数据能“租”出去赚钱,你准备好了吗?
夜雨聆风