2026年4月,英国金融监管机构正在举行一场不同寻常的紧急会谈。英伦银行(Bank of England)、金融行为监管局(Financial Conduct Authority, FCA)、财政部官员,连同国家网络安全中心(National Cyber Security Centre, NCSC)的代表,与各大银行、保险公司和交易所的高管们围坐在一起,讨论的议题指向同一个目标——一家名为Anthropic的人工智能公司发布的最新模型。
这个代号为“Claude Mythos Preview”的模型,隶属于Anthropic名为“Project Glasswing”的行业联合项目。首批合作方包括AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorgan Chase、Linux基金会、Microsoft、NVIDIA和Palo Alto Networks共12家行业巨头,另有40余家组织获得1亿美元的计算资源调用额度。项目的目标是将这一前沿模型用于关键软件基础设施的漏洞扫描与修复(Vulnerability Scanning and Remediation)。在测试中,该模型已经发现了主流操作系统、网页浏览器和其他广泛使用软件中的“数千个”零日漏洞(Zero-day Vulnerability),其中一些漏洞数十年来安全研究人员都未曾发现。Anthropic直言:“其后果——对经济、公共安全和国家安全——可能是严重的。”因此,该模型目前暂不向公众开放。
但真正让监管机构连夜开会的,不是这些漏洞本身,而是一个更令人不寒而栗的推论:如果AI能用同样的能力扫描漏洞,它也能用同样的能力发现交易系统的弱点、破解风控模型(Risk Control Model)、操纵市场数据。就在几天前,美国财长贝森特已经召集华尔街主要银行的高管开会,讨论该模型的潜在网络风险。与会的银行均被指定为全球系统重要性银行(Global Systemically Important Banks, G-SIBs)——这意味着其中任何一家出现运营中断(Operational Disruption),都可能给全球金融体系带来更广泛的系统性风险(Systemic Risk)。美联储主席鲍威尔的出席更是一个强烈信号:此事已被视为金融稳定威胁(Financial Stability Threat),而非单纯的网络安全事件。
而就在监管机构忙着评估AI可能造成的破坏时,Anthropic的另一个动作同样值得警惕——它开源了一套Claude金融服务AI插件,覆盖投行、私募股权、财富管理和股权研究等核心金融工作场景,被业内人士称为“目前功能最完整的金融AI工具集”。穆迪公司更是宣布将其信贷分析和合规工作流(Compliance Workflow)直接嵌入Claude平台,声称可以为受监管机构提供“可信、可辩护、可审计”的决策输出。
一边是发现“数千个重大漏洞”的超级模型,一边是覆盖投行、信贷、合规全链条的金融AI工具——当AI既能造矛又能铸盾,它正在以一种前所未有的速度,嵌入全球金融体系的心脏。而我们的法律,准备好了吗?
一、2010年“闪电崩盘”的回响:当算法集体失控
这不是第一次有人担心机器搞垮金融市场。
2010年5月6日下午,美国股市发生了一场令全球交易员瞠目结舌的“闪电崩盘”(Flash Crash)。道琼斯工业平均指数在短短几分钟内暴跌近1000点,近1万亿美元市值瞬间蒸发,随后又在几乎同样短的时间内大幅回升。事后调查发现,罪魁祸首不是任何人的恶意操纵,而是一台计算机在执行算法交易(Algorithmic Trading)时触发的连锁反应(Cascade Effect)。高频交易(High-Frequency Trading, HFT)系统在价格下跌时自动抛售,抛售进一步压低价格,压低价格又触发更多系统的自动抛售——如同多米诺骨牌一般,整个市场的流动性(Liquidity)在几分钟内被机器吸干。
美国证券交易委员会(Securities and Exchange Commission, SEC)主席玛丽·夏皮罗在事件一周年时坦言:高频交易商及其所使用的算法导致了这场崩盘,而当时高频交易商在市场交易量中所占份额远超过50%。没有人“想”制造崩盘,但机器的集体行为(Collective Behavior)制造了崩盘。事发后,没有人因此承担刑事责任(Criminal Liability)。
“闪电崩盘”之后的十多年里,算法交易不仅没有收敛,反而以更快的速度渗透到金融市场的每一个角落。量化交易、高频交易、智能投顾、AI信贷评估——机器的决策权重不断上升,人的干预不断退场。2025年的一项研究指出,AI技术凭借强大的计算能力和复杂的算法,使得市场操纵(Market Manipulation)行为摆脱了对显性资金流动信息的依赖,转而通过智能化的数据分析与自动优化策略来影响市场走势。AI算法能够在极短时间内完成大量数据的处理,并实时优化交易策略,整个过程几乎不需要人工干预。
如果说2010年的闪电崩盘是“自动化”失控的预演,那么当生成式AI——拥有自主学习(Autonomous Learning)和推理能力(Reasoning Capability)的模型——被投入金融市场时,我们面临的将是“智能化”失控的全新量级。Anthropic金融插件已经可以自动审阅企业财报、监管文件与市场数据,生成过去需耗时数天才能完成的投资报告。穆迪的信贷分析智能体可以在Claude中直接完成同业比较、评分卡评估和合规审查,生成的输出带有完整的来源追溯(Source Attribution)和审计轨迹(Audit Trail)。AI不再是执行人类指令的工具,它正在成为金融决策的事实上的主体(De Facto Decision-Maker)。
二、跑得比创新慢的法律
面对AI金融化的狂飙突进,全球监管体系的反应,可以用四个字概括:仓促应战。
欧盟试图用一部《人工智能法案》(EU Artificial Intelligence Act, AI Act)来建立防线。2025年11月,欧洲银行业管理局(European Banking Authority, EBA)发布了一份关于AI法案对欧盟银行业影响的简报,结论耐人寻味:AI法案与现有银行业监管框架之间“未发现重大矛盾”,两者是“互补”关系。银行和支付机构在评估自然人信用度或建立信用评分时使用的AI系统,被明确列为高风险AI系统(High-Risk AI System),需接受额外的安全监管。高风险AI系统的相关规则将于2026年8月2日起正式适用。但EBA同时也承认,审慎监管机构(Prudential Supervisor)、行为监管机构(Conduct Supervisor)和市场监督机构(Market Surveillance Authority)的多头并存,将给监管协调(Regulatory Coordination)带来挑战。
然而,法案还在路上,松绑的声音已经响起。2025年11月,欧盟委员会发布《人工智能数字综合法案》提案,旨在减轻企业的合规负担(Compliance Burden),甚至将合规义务豁免范围从中小企业扩展至“中型企业”。提案坦承:中小企业在部署高风险AI系统时可能面临数十万欧元的合规成本。一边是“AI风险太高必须严管”,一边是“监管太严会扼杀创新”——这条钢丝,欧盟走得并不轻松。
回到英国,监管机构在紧急会谈中祭出了“交叉市场运营韧性小组”(Cross Market Operational Resilience Group, CMORG),由英伦银行和英国金融协会共同主持,专门评估系统性威胁。Mythos模型已被列入CMORG及其下设的AI任务组(CMORG AI Taskforce)的会议议程,成为系统性风险讨论的核心议题。但耐人寻味的是,英伦银行并未触发其快速响应机制——那个可以在数小时内召集的“交叉市场业务连续性小组”(Cross Market Business Continuity Group),这意味着监管层仍在“监测事态发展”和“采取紧急行动”之间犹豫。与此同时,英国人工智能安全研究所(AI Security Institute, AISI)已经开始对Mythos模型进行红队测试(Red Team Testing),测试结果令人不安:Mythos能够在受控环境中执行完整的攻击链,仅用32步便完成了人类专家需要20小时才能完成的全流程。政策制定者正在考虑对金融AI系统引入标准化测试与认证机制(Standardized Testing and Certification Regime)。
这就是全球AI金融监管的现状:欧盟在法律条文与产业压力之间摇摆,英国在“监测”与“行动”之间观望。没有哪一个司法辖区真正解决了核心问题——当AI以远超人类的速度做出决策,当算法之间的连锁反应可能瞬间吞噬万亿市值,现有的监管工具箱几乎全部是事后追责(Ex Post Accountability)而非事前防控(Ex Ante Prevention)。
三、谁为AI的“集体行为”负责?
这引出了最棘手的问题:如果AI真的引发了一场金融灾难,谁来承担责任?
在传统法律框架下,责任认定需要满足一个基本前提——存在一个可以被归责的法律主体(Legal Person)。但生成式AI打破了这一前提。AI的决策不是任何单一个人的意志,而是模型训练数据(Training Data)、算法架构(Algorithm Architecture)、用户输入(User Input)和系统环境(System Environment)共同作用的结果。当一个AI信贷模型拒绝了一笔贷款,背后的“决策者”是谁?是编写算法的工程师?是提供训练数据的数据商?是部署模型的使用机构?还是模型本身?现行法律对这个问题没有明确答案。
学术研究指出,生成式AI在数字金融领域的应用带来了多重法律风险,包括数据安全隐患、算法偏见(Algorithmic Bias)、市场操纵、系统性风险,而其中最为棘手的正是责任归属难题(Attribution Problem)。现行监管框架在规范标准、风险控制与法律适用方面存在明显不足。在责任归属问题上,金融AI的“断层线”早已不仅存在于大行与小行之间,更深藏于算法与法律之间。
我国学者提出,应对当前法律监管体系与技术应用实际之间的匹配落差,应围绕模型审查(Model Review)、数据安全追溯(Data Security Traceability)、系统性风险防控和责任归属四个关键环节,以“可解释性(Explainability)、可审计性(Auditability)、可问责性(Accountability)、可恢复性(Recoverability)”为治理目标,构建既鼓励创新又有效防控风险的治理框架。这四个关键词为未来立法指明了方向,但从理念到制度落地,还有漫长的路要走。
在民事责任(Civil Liability)层面,目前各国普遍采用过错责任原则(Fault Liability Principle),即只有当行为人存在过错时才承担责任。但在AI引发的金融损害中,过错认定(Fault Determination)极为困难:开发者可能主张其已尽到合理的注意义务,部署者可能主张其无法预见AI的涌现行为(Emergent Behavior),使用者可能主张其完全依赖AI的输出。这导致了责任真空(Liability Gap)的出现——受害者的损失无法得到有效赔偿。
在刑事责任层面,问题更加复杂。传统刑法理论要求犯罪主体(Subject of Crime)必须是自然人或法人,而AI目前不具备法律主体资格。即使AI的行为造成了严重的社会危害,也无法对AI本身定罪量刑。同时,因果关系(Causation)的证明也极为困难:如何证明AI的行为与市场崩盘之间存在直接的、必然的因果关系?如何区分AI的自主行为与人类的干预行为?这些都是刑法理论尚未解决的难题。
回到Anthropic的案例。Mythos模型发现了“数千个”重大漏洞,这些漏洞Anthropic选择了“暂不向公众开放”,而是通过“Project Glasswing”让选定的机构以受控方式使用。这是一种负责任的做法。但问题在于:如果不是Anthropic,而是一家没有同样克制力的公司呢?如果漏洞被发现后不是用于防御,而是被恶意利用呢?如果AI模型不是用于扫描漏洞,而是被直接部署到高频交易系统中,以毫秒级速度执行市场操作呢?我们唯一的防线,竟然是一家私营公司的自我约束(Self-Regulation)。
四、达摩克利斯之剑:悬在金融体系上空的AI
AI对金融体系的风险,至少来自三个维度:
第一,网络安全风险的系统化。Anthropic的Mythos模型已经证明,AI可以在极短时间内发现人类数十年未能察觉的系统漏洞。如果这一能力被恶意使用,攻击者可以同时针对多家全球系统重要性银行发起精准打击(Precision Strike)。而金融系统的互联互通(Interconnectedness)意味着,一家银行的瘫痪可能通过清算系统(Clearing System)、同业拆借市场(Interbank Lending Market)、衍生品合约(Derivatives Contract)等渠道,迅速传导至整个体系。这正是美联储主席鲍威尔亲自出席紧急会议的原因——这不是网络安全的“点状风险”,而是金融稳定的“系统性风险”。
第二,算法交易的“闪电崩盘2.0”。2010年的闪电崩盘由相对简单的自动化算法引发,而今天的AI模型拥有自主推理和策略优化能力。当多个AI系统同时部署在市场之中,它们之间可能产生人类无法预见的算法共振(Algorithmic Resonance)——如同Mythos扫描漏洞时发现的那些“隐藏了数十年的漏洞”一样,金融市场中也可能潜藏着只有在特定条件下才会被触发的系统性脆弱点(Systemic Vulnerability)。区别在于,漏洞可以被修复,而一场AI引发的全球性市场崩盘,没有“回滚”按钮。
第三,信贷与风险评估的黑箱化。穆迪将信贷分析工作流嵌入Claude,这意味着AI正在直接参与“评估信用度”这一金融体系最核心的功能。如果AI模型因为训练数据的偏差而系统性低估(Systematic Underestimation)某一类借款人的风险(或高估另一类),这种偏差可能在数以百万计的信贷决策中被同步放大,最终形成资产泡沫(Asset Bubble)或信用紧缩(Credit Crunch)。而当监管机构追问“为什么做出这个信贷决策”时,答案可能是“模型算出来的”——这恰恰是“可解释性”困境的缩影。
这些风险的最大公约数是:它们都是“看不见的风险”。不像银行挤兑那样肉眼可见,不像股市暴跌那样有K线图为证,AI风险潜伏在代码之中、训练数据之中、算法架构之中。当一个漏洞被触发,当一段恶意代码被激活,当多个AI模型的交互产生不可预知的涌现行为——灾难可能在几分钟内发生,而人类甚至来不及按下“紧急停止按钮”(Kill Switch)。
每一次将信贷评估交给模型,每一次让算法执行交易,每一次用AI扫描系统漏洞,我们都在将那根悬挂着利剑的马鬃磨损一分。
问题是,在它落下的那一天,我们准备好答案了吗——如果AI搞崩了全球股市,谁来坐牢?
#AI金融风险#Anthropic#ClaudeMythos#ProjectGlasswing#算法交易#金融监管#闪电崩盘#系统性风险#AI责任认定#欧盟AI法案#网络安全#高频交易#金融科技#可解释AI#法律规制#风险治理#CMORG#AISI#零日漏洞#穆迪
夜雨聆风