所以,AI能不能动这个人? | AI Daily Feed 260503

今日概览
BRIEF
「中国法院终审判定:企业不能以”AI替代”为由解雇员工,技术升级的成本不应由劳动者独自承担。」
「Anthropic 与英国芯片初创公司 Fractile 早期谈判,2027 年起采购 SRAM 架构推理芯片,成为继 Google、Amazon、Nvidia 之后的第四个供应来源。」
「Fractile 用”把模型权重直接焊在芯片上”的激进路线挑战 Nvidia 在推理市场的统治,欧洲 AI 硬件迎来罕见的进攻时刻。」
01
行业动态
Industry Dynamics
中国法院判定
企业不能以”被AI替代”为由解雇员工

5月2日,Bloomberg援引杭州中级人民法院的终审裁决报道:一家AI科技公司因”AI接管了你的岗位”为由,将一名负责大模型质检的员工降薪40%(从月薪25,000元降至15,000元),员工拒绝接受调岗后被公司辞退。法院判决——公司败诉,认定”AI技术升级”不属于劳动合同法中”客观情况发生重大变化”的法定情形,企业不得以此为由单方面解雇员工或降薪。
这是继2025年12月北京类似判例后的第二例。法院明确表态:技术转型的成本不应由劳动者独自承担,企业引入AI是”战略选择”而非”不可抗力”,应当通过合理调岗、再培训、补偿等方式履行义务。
NPR、Digital Trends、The Next Web 同步跟进报道,The Next Web 的标题更加直接:《中国已经认定”因为AI能干这活就辞退员工”是违法的,西方国家没有一个这么做》。
Cmts:这个判决的有趣之处,不在判决本身,而在它把全世界的AI讨论拉低了一个维度。
过去两年,硅谷、华尔街、AI圈讨论的全部是 capability ——AI能不能写代码、能不能做客服、能不能替代分析师。每一次benchmark刷新,都被解读为”又一类工作要消失”。话语逻辑是:只要AI能干,公司就该用AI干。
但中国法院这次说的是另一件事:就算AI能干,公司也不能因此就把人赶走。这不是技术问题,是 right 的问题。是劳动者在这场技术变革里有没有 standing 的问题。
这是一个非常微妙的分裂。在美国,AI裁员潮是企业重组的标准工具——Microsoft、Meta、Google、Salesforce 在过去一年都进行了万人级别的”AI驱动重组”。Klarna的CEO公开宣称”AI已经做完了700人的客服工作”,市场鼓掌。在那套逻辑里,AI是企业重新分配价值的合法理由。
而中国正在做相反的事:一边是国家战略层面全力推AI普及,”人工智能+”写进政府工作报告;另一边是司法系统画出红线,明确告诉企业——你可以用AI,但不能用AI做”摆脱人”的借口。
这背后有一个更深的逻辑差异。硅谷把AI看作生产工具,工具替代人是天然合理的;而中国的劳动法体系把AI替代看作企业的主动选择,主动选择就要承担责任。前者讨论的是 efficiency,后者讨论的是 liability。
更值得玩味的是,这件事在国内反而几乎没有舆论发酵,是Bloomberg、NPR、The Next Web这些海外媒体在替中国发声:”看,中国在做我们不敢做的事”。这说明什么?说明AI时代的劳动权问题,是一个全球都还没准备好答案的问题——所有人都知道这事会发生,但没有一个发达经济体敢做第一个吃螃蟹的。中国法院无意中成了这个议题的全球先发者。
接下来值得观察的是:当这种判例成为常态、当更多AI裁员案件被起诉,AI的部署成本会被重新定价吗?过去公司算账只算”AI替代1个人能省多少钱”,未来要不要把”补偿成本+诉讼风险+合规成本”也算进去?如果要算,那AI的真实ROI公式就被重写了。今天看是一个劳动法判决,三年后再看,可能是AI部署经济学的转折点。
Anthropic 早期谈判
将从英国初创公司 Fractile 采购AI推理芯片

5月2日,The Information独家披露:Anthropic 正在与英国伦敦的AI芯片初创公司 Fractile 进行早期谈判,准备在Fractile的芯片2027年量产时采购其AI推理(inference)芯片,作为现有 Google、Amazon、Nvidia 三大供应商之外的第四个芯片来源。
Fractile 是一家做基于 SRAM 架构的推理专用芯片的公司,与Cerebras、Groq处于同一技术路线——不依赖与高带宽内存(HBM)频繁交换数据,而是把模型权重直接放在SRAM里运行,能效和延迟都显著优于通用GPU。
报道指出,Anthropic销售爆炸式增长导致服务器算力告急,去年AI产品的毛利率因为推理成本超预期而未达目标,OpenAI也面临同样的问题。这次谈判的核心目的是多元化供应链、增加对Nvidia的议价权——目前Anthropic每年在服务器和芯片上的支出预计将达数百亿美元。
Anthropic 的策略其实非常一致:之前已经签了 Google TPU 的大单(约3.5GW,2027年起上线),同时在和Broadcom谈自研芯片的可能性,现在又把英国的初创公司Fractile加入候选清单。
CMTs:这条新闻最有意思的不是”Anthropic又找了一家芯片供应商”,而是它揭示了一个正在发生但很少被讨论的范式转变——AI芯片正在分裂成两个完全不同的市场。
过去两年,整个行业的注意力都在一件事上:训练(training)。OpenAI训GPT-5要多少卡、xAI的Colossus 2集群多少瓦、Meta的Llama要烧多少GPU——所有故事都围绕”训练”。在这个故事里,Nvidia是绝对的霸主,因为只有H100/B200能撑得住万亿参数模型的训练。
但2026年,故事正在悄悄换主角。真正烧钱的环节已经从训练转向了推理。OpenAI每天为ChatGPT做推理的成本,远远超过它训练新模型的边际成本;Anthropic的Claude API流量爆炸,去年因为推理成本超预期把毛利率拖下来了。模型训练是一次性的资本支出,推理是天天都在烧的运营支出——前者是装修房子,后者是水电气。
而推理这个市场,Nvidia不再是唯一的答案。
为什么?因为推理任务的特征和训练完全不同。训练需要超大显存、超高带宽、超复杂的并行通信,GPU是天选之子;但推理是”模型权重+海量请求”的重复计算,只要把模型塞进足够快的内存里反复读就行。这恰好是SRAM架构芯片(Cerebras、Groq、Fractile)擅长的——把权重直接焊在芯片上,不用反复从HBM拷数据进来,延迟和能效都吊打通用GPU。
真正的AI芯片战争,不是发生在训练侧(那基本已经定型),而是发生在推理侧(一切刚刚开始)。Google有TPU、Amazon有Trainium/Inferentia、Microsoft有Maia、OpenAI在和Broadcom自研、Anthropic在和Google合作TPU+和Broadcom谈自研+和Fractile谈采购。每一家头部AI公司都在做同一件事:把推理工作负载从Nvidia GPU上挪走,挪到自家可控、单位成本更低的专用芯片上。
Anthropic谈Fractile的信号尤其值得注意——Fractile还没量产,预计要到2027年才有货。Anthropic为什么这么早就锁单?因为它已经预见到了:到2027年,Claude的推理流量大概率会再翻10倍,到时候如果还100%绑定Nvidia,Nvidia说涨价就涨价、说断货就断货,Anthropic毫无议价权。现在多养一个供应商,就是给未来的自己买一份保险。
这件事真正的意义在于:英伟达对AI的统治,可能在推理这个战场上被悄悄解构。训练侧Nvidia可能继续称霸,但推理这个更大、更长尾、更日常的市场,正在分裂成”垂直专用芯片+轻量化模型”的新格局。从投资和产业格局的角度看,未来三年最值得关注的AI芯片公司,可能不再是已经市值4万亿美元的Nvidia,而是Cerebras、Groq、Fractile这些”被遗忘的二线选手”。
故事讲到这里就清楚了:AI第一阶段拼的是”谁能训出更大的模型”,第二阶段拼的是”谁能把推理成本压到最低”。前者已经基本结束,后者刚刚开始。
02
应用案例
Aplication Cases
用 SRAM 在芯片上”焊死”模型权重
Fractile挑战Nvidia的推理生意

Fractile 总部位于伦敦,由前牛津大学博士 Walter Goodwin 在2022年创立,专注于做推理专用芯片。它的技术路线非常激进:完全抛弃HBM(高带宽内存),把整个大模型的权重直接焊在芯片的SRAM上。
为什么这么做?因为现在AI推理最大的瓶颈,不是计算(FLOPS),而是数据搬运。一个传统GPU跑大模型推理时,绝大部分时间在做一件事:从HBM内存里反复读取模型权重→搬到计算单元→算完再丢回去。这个过程要消耗的能量和时间,远远超过实际计算本身。Fractile 的方案是釜底抽薪——既然搬运是瓶颈,那就别搬了,直接把权重放在离计算单元最近的SRAM上。
这种思路和Cerebras的”晶圆级芯片”、Groq的LPU是一脉相承的,但Fractile声称自己在能效比上比Groq还要再高一个量级。公司目前融资规模不大(几千万英镑级别),但已经引来Anthropic这种第一梯队AI Lab的关注。Anthropic 谈判的核心点是2027年Fractile量产时锁定大批量采购——一个还没出货的产品,Anthropic 愿意提前两年下单。
CMTs:Fractile的故事可以用一个特别直观的比喻来理解。
传统GPU跑推理,像是一家米其林餐厅:厨房(计算单元)和食材仓库(HBM内存)是分开的,每次做菜都要厨师跑去仓库里翻找食材、扛回厨房、做完一道菜再跑回去拿下一份食材。看起来每一步都没问题,但如果你点的是”100道菜的套餐”(也就是大模型的几千亿参数),厨师光是跑腿就累死了,而且仓库到厨房那条路(内存带宽)永远是塞车的。
Fractile这种SRAM架构芯片,像是一家盒饭流水线:所有食材(模型权重)已经预先码好,就放在厨师手边的小架子上(SRAM),伸手就能拿。每道菜的制作时间被压缩到极致,能耗也低。代价是什么?架子小,放不下太多种食材——也就是单芯片塞不下太大的模型,需要多芯片协同。
但这恰好是2026年AI推理市场的趋势——模型在变小、变专、变高频。
过去大家追求的是”一个模型走天下”(GPT-5、Claude Opus 4.7),但实际部署里,企业越来越多用的是经过蒸馏、量化、微调的小模型。Llama 3.1 8B、Mistral的小模型、阿里Qwen的MoE版本,这些模型加起来跑的token数量,已经远远超过几个旗舰大模型。这是一个完美适配Fractile这类专用芯片的市场:模型够小够稳定、推理频次够高、单位成本敏感。
更重要的是,这个故事代表着AI硬件创新的方向变了。过去三年,AI硬件创业基本是死局。原因很简单:Nvidia赢者通吃——CUDA生态、HBM联盟、台积电产能,Nvidia把整个堆栈都锁死了。任何想做”通用AI芯片”的初创公司,要么被Nvidia直接碾压(性能根本追不上),要么被生态绑架(开发者不愿意迁移)。Graphcore、Habana、SambaNova,过去几年挂掉或者卖身的初创公司能列一长串。
但Fractile这类”垂直推理芯片”找到了新的缝隙:不和Nvidia比训练,只做推理;不做通用,只做特定模型部署;不做万能API,直接卖给Anthropic、OpenAI这样的几个超级客户。这是一个 B2B、低SKU、高客单价 的生意——做对一两个大客户就能存活,做对五六个就能IPO。
从这个意义上说,Anthropic和Fractile的谈判,不仅是Anthropic的供应链多元化,也是英国AI硬件的一次站立。Fractile如果跑通,将成为欧洲第一个真正打入头部AI Lab采购清单的硬件公司——这件事的战略意义,在欧洲AI产业被美国压制了三年之后,远不是几亿美元订单可以衡量的。
值得想的一个问题:当AI推理的”长尾市场”远远大于训练的”头部市场”时,2027年的AI硬件版图,可能会比今天我们熟悉的”Nvidia + AMD + 几家自研”复杂得多。Fractile是一个早期信号,更多类似的公司会在未来18个月内冒出来。
注释
【1】推理(Inference):AI模型训练完成后,用来回答用户提问、生成内容的过程。和”训练”是AI模型的两个阶段——训练是”教模型学会”,推理是”让模型干活”。ChatGPT每次回答你的问题、Claude每次写代码,都是在做推理。
【2】SRAM(静态随机存取存储器):一种速度极快、但容量小、成本高的内存。和常见的DRAM/HBM相比,SRAM的访问延迟可以低一个数量级,但同样面积下能存的数据少得多。Fractile、Cerebras、Groq都是用SRAM做推理芯片的代表公司。
【3】HBM(High Bandwidth Memory,高带宽内存):当前主流AI GPU(如Nvidia H100/B200)使用的内存类型,带宽极高但能耗大、延迟相对SRAM更高。HBM由SK海力士、三星、美光三家垄断,是AI芯片产能瓶颈的关键之一。
【4】TPU(Tensor Processing Unit):Google自研的AI专用芯片,专门用于神经网络计算。Anthropic 已经和Google签了大额TPU采购协议(约3.5GW),是它”摆脱Nvidia依赖”战略的关键一步。
【5】客观情况发生重大变化:中国劳动合同法第40条规定的法定解雇情形之一,原本指代”不可抗力”性质的事件(如自然灾害、政策剧变导致企业无法继续经营)。本次中国法院明确裁定,企业主动引入AI技术不属于此类情形,是这次判决的法律核心。

Democratizing invention for everyone.
让每个人都拥有创新的能力

新闻|James Intern @woodo.ai
评论|James Intern @woodo.ai
夜雨聆风