乐于分享
好东西不私藏

爱可可AI前沿推介(4.17)

爱可可AI前沿推介(4.17)

LG - 机器学习 CV - 计算机视觉 CL - 计算与语言 AS - 音频与语音 RO - 机器人

1、[LG] (How) Learning Rates Regulate Catastrophic Overtraining
2、[LG] Event Tensor:A Unified Abstraction for Compiling Dynamic Megakernel
3、[CL] English is Not All You Need:Systematically Exploring the Role of Multilinguality in LLM Post-Training
4、[CL] Lossless Prompt Compression via Dictionary-Encoding and In-Context Learning: Enabling Cost-Effective LLM Analysis of Repetitive Data
5、[LG] Beyond State Consistency:Behavior Consistency in Text-Based World Models

摘要:学习率如何调控灾难性过拟合、面向动态Megakernel编译的统一抽象、系统性探究多语言特性在LLM后训练中的作用、基于字典编码与上下文学习的无损提示词压缩、基于文本的世界模型中的行为一致性

1、[LG] (How) Learning Rates Regulate Catastrophic Overtraining

M Rofin, A Varre, N Flammarion
[EPFL]

学习率如何调控灾难性过拟合

要点:

  • 深入研究了LLM中的“灾难性过度训练(Catastrophic Overtraining)”现象,这是一个反直觉的发现:更长、看似“更好”的预训练,反而会导致模型在监督微调(SFT)阶段出现更严重的灾难性遗忘。
  • 发现SFT阶段的学习率(LR)起到了“隐式正则化”的作用。对于被训练到完全相同SFT Loss的模型,低学习率能更好地保留预训练能力(处于“懒惰/Lazy”机制),而高学习率会导致严重的分布外(OOD)性能下降(处于“富特征/Rich”机制)。
  • 提出了一个高信息熵的观点:在优化过程中,特征漂移(通过平均主成分角MPA衡量)随学习率呈线性增加,而Loss的下降随学习率呈凸函数关系。因此,使用高学习率达到相同的Loss下降,必然意味着模型偏离预训练初始化的距离更远,从而覆盖或破坏了基础特征。
  • 将灾难性遗忘与损失地形的“锐度(Sharpness,Hessian矩阵的最大特征值)”联系起来。在使用固定的SFT学习率时,更锐利的初始状态会导致优化器产生过冲,使得特征更严重地偏离基座模型。
  • 揭示了灾难性过度训练的根本原因:预训练期间的学习率衰减(例如WSD调度中的冷却阶段)驱使模型进入了损失地形中更锐利的区域(稳定边缘/Edge of Stability)。
  • 得出结论:模型的“进行性敏感”或过度训练,并非仅仅是因为“看过了更多的Token”(即模型容量限制),而是一种由预训练学习率衰减导致模型锐度增加所引发的优化伪影。
  • 提出了极具实用价值的建议:在保证分布内任务性能的前提下,使用尽可能小的SFT学习率;并尽量避免预训练阶段的学习率衰减,将其完全推迟到后训练(post-training)阶段再进行。

主旨: 本文旨在探究大型语言模型(LLM)在监督微调(SFT)中出现的“灾难性遗忘”以及随着预训练加深而恶化的“灾难性过度训练”现象的根本机制。文章通过引入隐式正则化和损失地形锐度(Sharpness)的视角,论证了预训练阶段的学习率衰减和SFT阶段的学习率选择是如何共同改变模型的优化轨迹,从而导致基础能力的丧失。

创新:

  • 细粒度特征漂移度量:创新性地利用平均主成分角(MPA)和稀疏自编码器(SAE)在Transformer的残差流层面对微调前后的特征漂移进行了精确量化。
  • 步进视角的损失-漂移解耦分析:提出了一种将“单步Loss下降”与“单步特征漂移(MPA增加)”对学习率的敏感度进行解耦分析的方法,数学上解释了为什么相同Loss下高学习率破坏性更大。
  • 构建微调和预训练的动力学桥梁:将优化文献中已知的“渐进锐化/稳定边缘”现象成功映射到LLM的序列化训练(预训练+微调)生命周期中,提出并验证了预训练学习率衰减诱发高锐度,进而导致微调遗忘的新机制。

贡献:

  • 理论澄清:澄清了“灾难性过度训练”并非单纯由于模型容量瓶颈或“预训练见过的Token太多”导致,而是由于预训练末期的学习率衰减策略导致模型落入了高锐度的局部极小值。
  • 实证验证:在多个1B-3B参数规模的现代开源LLM(如OLMo, Hubble, Gemma 3, SmolLM)上复现并验证了学习率隐式正则化与遗忘的强相关性。
  • 方法论指导:为LLM的后训练流水线提供了明确的超参数指导方针,即SFT应保持极小学习率,且预训练阶段应尽量避免传统的学习率衰减(支持了恒定学习率或无衰减预训练的现代趋势)。

提升:

  • 可解释性提升:显著提升了对SFT过程中模型内部表征变化的机理理解,证明了损失函数(Loss)不再是衡量微调质量的唯一或绝对指标。
  • 锐度评估的扩展:提出并验证了一种基于高斯参数扰动的锐度代理计算方法(Proxy),使得在数十亿参数的LLM上有效评估Hessian最大特征值(真实锐度)成为可能。

不足:

  • 模型规模局限:所有的实验主要集中在1B到3B参数的小型LLM上。虽然作者认为这些现象在该尺度已经显现,但尚未在70B或更大的千亿参数前沿模型上进行验证。
  • 因果关系论证的缺失:关于“预训练学习率衰减导致锐度上升进而导致过度训练”的结论,主要建立在对现有开源模型(如SmolLM的WSD策略)的观察和相关性分析上,缺乏通过从头干预预训练学习率调度来进行的严格反事实/因果对照实验。

心得:

  • Loss指标的欺骗性(Loss Is Not Everything):本文极其反直觉地指出,把模型训练到完全一样的SFT Loss,并不意味着得到了相同的模型。高学习率走了一条“大砍大杀”的捷径来降低Loss,代价是破坏了预训练阶段辛苦建立的通用表征。这提醒我们在评估模型微调时,必须引入OOD(分布外)测试或内部表征距离度量,绝不能迷信Training/Validation Loss。
  • 预训练学习率衰减的“暗面”:业界通常认为预训练末期的学习率余弦衰减(Cosine Decay)或WSD的Cooldown是为了让Loss完美收敛的必要手段。但本文深刻揭示了它的代价:它将模型逼入了一个极其“陡峭(Sharp)”的参数空间。这种陡峭的基座模型在面临后续微调时极为脆弱,极易发生灾难性遗忘。这为近期的无衰减预训练(No-Decay Pretraining)范式提供了坚实的理论支撑。
  • 超参数即“归纳偏置”:学习率不仅决定了模型收敛的“速度”,更决定了模型收敛的“目的地”。低学习率倾向于“懒惰学习(Lazy Regime)”,仅在原有特征上做线性组合;高学习率倾向于“富特征学习(Rich Regime)”,强制重写特征。在SFT这种数据量小且只需激发指令遵循能力的阶段,强行使用大学习率进行富特征重写,是对大模型基础能力的暴殄天物。

一句话总结: 本文极其反直觉地揭示了LLM“越预训练越容易在微调中发生灾难性遗忘”的根本原因:预训练末期的学习率衰减导致模型陷入高锐度(Sharpness)的损失地形,使得模型在随后使用常规学习率进行微调时极易发生剧烈的特征漂移和基础能力覆写。

Supervised finetuning (SFT) is a common first stage of LLM post-training, teaching the model to follow instructions and shaping its behavior as a helpful assistant. At the same time, SFT may harm the fundamental capabilities of an LLM, particularly after long pretraining: a phenomenon known as catastrophic overtraining (Springer et al., 2025). To understand overtraining, we first investigate catastrophic forgetting in finetuning through the lens of implicit regularization of the learning rate. For models trained to the same SFT loss, we identify how the learning rate mediates optimization: finetuning with large and small steps converges to qualitatively different models. Next, we link forgetting to overtraining: learning rate decay increases the sharpness of the pretrained model, which in turn exacerbates catastrophic forgetting during SFT, leading to overtraining. Our findings paint a picture of the overtraining mechanism in LLMs and broadly contribute to the understanding of the interplay between optimization dynamics during pretraining and finetuning.

https://arxiv.org/abs/2604.13627


2、[LG] Event Tensor: A Unified Abstraction for Compiling Dynamic Megakernel

H Jin, B Hou, G Wang, R Lai…
[CMU]

事件张量:面向动态Megakernel编译的统一抽象

要点:

  • 指出了现代LLM推理中传统逐Kernel执行和CUDA Graphs的固有局限性:极大的Kernel启动开销,以及阻碍Kernel间并行执行的粗粒度隐式同步屏障。
  • 提出了事件张量(Event Tensor, ET)这一高信息熵抽象,将底层的细粒度同步原语(如信号量/事件)提升为“一等公民”的多维张量表示。
  • 以反直觉的方式解决了形状动态性(Shape Dynamism,如连续批处理)问题。以往这需要依赖JIT重编译或在运行时重复捕获CUDA Graph,而本文通过在Event Tensor中引入符号化维度,为高度动态的负载实现了真正的提前编译(AOT)。
  • 通过动态事件更新和任务触发机制解决了数据依赖动态性(Data-Dependent Dynamism,如MoE路由)问题,即由运行时计算的索引张量来决定哪些任务发出通知、以及触发多少个下游任务。
  • 提出了事件张量编译器(ETC),实现了两种统一的调度转换:
    • 静态调度:开销极小,预先分配SM(流式多处理器)任务队列;适用于诸如All-Gather + GEMM这样可预测的操作。
    • 动态调度:一种轻量级的GPU端任务调度器,能够自适应不可预测的负载(如受网络抖动影响的Reduce-Scatter,或负载不均的MoE路由)。
  • 证明了将依赖图直接嵌入到编译后的Megakernel代码中,可以彻底消除Host端维护和具象化庞大任务图的运行时开销。
  • 性能亮点:在重叠分布式计算与通信方面实现高达1.40倍的加速,在MoE层实现1.23倍加速;与高度优化的基线(vLLM, SGLang)相比,在低Batch推理中端到端延迟显著降低。
  • 通过彻底消除运行时的静态图捕获(Graph Capture),将LLM引擎的预热时间从数百秒(如SGLang的583秒)惊人地缩减至仅35秒。

主旨: 本文旨在解决现代GPU在运行大型语言模型(LLM)推理时,由于Kernel启动开销和粗粒度边界同步所导致的性能瓶颈。为了让多个算子能够融合在一个巨型内核(Megakernel)中并实现跨算子并行,论文提出了一种名为“Event Tensor”的统一编译器抽象,该抽象能够同时优雅地处理现代LLM中极具挑战的“动态形状”和“数据依赖动态性”问题。

创新:

  • “控制”的张量化表达:首次将Megakernel内部底层的同步事件抽象为一个具有多维符号形状的“一等张量”,让复杂的同步逻辑可以复用成熟的张量编译器基础设施。
  • 无JIT的动态形状支持:利用符号化维度的Event Tensor构建依赖图模板,无需像当前工业界那样枚举多种Batch Size去捕获成百上千个CUDA Graph,实现动态尺寸的一图通用。
  • 动态调度下放GPU:将任务调度的逻辑(包括Push/Pop就绪任务的动态调度器和轮询等待的静态调度队列)直接编译进Megakernel中,让GPU完全自主管理细粒度的任务图执行,极大减轻了CPU的负担。

贡献:

  • 理论抽象:提出了Event Tensor这一全新的并行编程与编译抽象,填补了Megakernel在表达复杂动态控制流时的理论和工具空白。
  • 编译器实现:构建了Event Tensor Compiler (ETC) 系统,将人工手写的、极易出错的Megakernel融合与调度策略,转化为一套系统的自动化编译器优化Pass(包含静态调度和动态调度)。
  • 系统性能破局:在保持基准硬件利用率的前提下,成功打破了vLLM、SGLang等顶尖推理引擎在低Batch延迟和系统预热时间上的瓶颈,证明了该方法在生产环境级别的巨大经济价值。

提升:

  • 通信与计算重叠(分布式张量并行):在融合GEMM和Reduce-Scatter操作时,吞吐速度比未重叠基准提升高达1.40倍。
  • 复杂动态路由(MoE处理):针对高度不规则的MoE层数据流,动态Megakernel调度比现有的FlashInfer和Triton实现速度提升最高达1.23倍。
  • 端到端推理延迟:在最苛刻的低并发(Batch Size=1)场景下,比vLLM快1.48倍,比SGLang快1.20倍。
  • 服务冷启动/预热效率:消除了运行时庞大且耗时的JIT图捕获过程,将Qwen3-32B等模型的加载预热时间缩短了超过10倍(由583秒直降至35秒)。

不足:

  • 全局共享队列的潜在争用:在动态调度机制中,系统在GPU全局内存(Global Memory)中实现了一个所有SM共享的任务调度队列。在面临未来更大规模的GPU或更极端细粒度的任务切分时,这种中心化设计可能会面临内存访问冲突(Contention)瓶颈。
  • 部分算子的极致调优尚缺:ETC作为通用编译器,其在某些特定Size下生成的底层Tile-level算子(如局部GEMM),其性能偶尔仍微弱逊色于NVIDIA手工极致调优的cuBLAS。
  • 大规模分布式环境验证不足:目前的评估基于单机8卡B200环境,动态调度在跨节点(多机多卡)、具有更大网络延迟和抖动环境下的容错和重叠效率,需要进一步的验证。

心得:

  • “控制流与数据流的统一化”(Control as Data)极具启发性:长久以来,编译器对“数据张量”的Shape推导和优化已经非常成熟,但“控制流/同步屏障”一直被视作难以优化的黑盒异类。本文将同步关系直接包装成具有符号形状的“张量(Event Tensor)”,使得不可预测的动态路由(如MoE)能够无缝融入现有的Tensor IR,这种降维打击的思路非常精妙。
  • Megakernel时代的“去CPU化/去运行时化”:传统AI框架(如PyTorch)高度依赖强大的Host端(CPU)Runtime来维护任务图并密集下发Kernel。但在单次计算耗时仅几微秒的LLM解码阶段,CPU-GPU通信已成为绝对的累赘。本文通过将调度器直接编译进单个持久化GPU Kernel内,让GPU实现“完全自治”,预示着未来AI系统底层架构的必然演进方向。
  • 打破“动态”必伴随“JIT”的思想钢印:工业界(如vLLM/SGLang)为了支持动态连续批处理(Continuous Batching)同时又想降低Launch开销,被迫采用极其丑陋且耗时的方案:在启动前针对各种Batch Size穷举捕获几十上百个CUDA Graph。本文证明,只要抽象(符号化)做得对,完全可以用Ahead-Of-Time(AOT)静态编译一劳永逸地解决高度动态的工作流,这对于大规模云端弹性部署具有颠覆性的意义。

一句话总结:
本文创新性地提出将GPU底层的同步事件抽象为具有符号化形状的“事件张量(Event Tensor)”,并基于此构建了支持静态和动态在片(On-chip)调度的编译器ETC,一举打破了LLM推理中动态形状必须依赖庞大预热捕获的工业界魔咒,在显著降低低Batch延迟的同时将系统预热时间缩减了一个数量级以上。

Modern GPU workloads, especially large language model (LLM) inference, suffer from kernel launch overheads and coarse synchronization that limit inter-kernel parallelism. Recent megakernel techniques fuse multiple operators into a single persistent kernel to eliminate launch gaps and expose inter-kernel parallelism, but struggle to handle dynamic shapes and data-dependent computation in real workloads. We present Event Tensor, a unified compiler abstraction for dynamic megakernels. Event Tensor encodes dependencies between tiled tasks, and enables first-class support for both shape and data-dependent dynamism. Built atop this abstraction, our Event Tensor Compiler (ETC) applies static and dynamic scheduling transformations to generate high-performance persistent kernels. Evaluations show that ETC achieves state-of-the-art LLM serving latency while significantly reducing system warmup overhead.

https://arxiv.org/abs/2604.13327


3、[CL] English is Not All You Need: Systematically Exploring the Role of Multilinguality in LLM Post-Training

M Dhaliwal, S Chaurasia, Y Qin, D Hong…
[UC Santa Barbara & Amazon]

英语并非万能:系统性探究多语言特性在LLM后训练中的作用

要点:

  • 挑战了目前以英语为中心的LLM后训练(微调)主导范式,证明了“仅使用英语进行微调”始终是次优选择,哪怕你的目标仅仅是为了最大化英语任务的性能。
  • 揭示了一个反直觉的发现:在微调数据中仅仅加入“一种”非英语语言的平行数据,不仅能改善跨语言迁移能力,还能逆向提升模型在纯英语任务上的表现。
  • 打破了现代模型后训练中的“多语言诅咒(因容量限制导致的负面干扰)”迷思。研究表明,对于1B参数以上的模型,增加语言多样性(最多10种)主要带来正向收益;高资源语言的表现会趋于平稳而非下降,而低资源语言的表现则会持续提升。
  • 证明了高度的语言多样性能够促发强大的零样本跨语言迁移能力。对于高资源语言和英语,这种多样性带来的零样本能力甚至可以匹敌或超越直接将该目标语言加入训练集(双语训练)的效果。
  • 确定了容量瓶颈的边界条件:所谓的“多语言干扰”仅仅在极小规模的模型(Qwen-3 0.6B)且面对高度结构化的API调用任务时才被观察到,暗示了处理多语言结构化任务存在一定的参数容量门槛。
  • 指出了多样性泛化的局限性:对于在语言类型学上相距甚远且资源匮乏的语言(小语种),仅仅依赖多样性带来的零样本迁移是不够的,依然必须将它们直接加入训练混合数据中。
  • 引入了全新的多语言API调用数据集 mAPICall-Bank(涵盖11种语言),将多语言后训练的评估从标准的文本/推理任务扩展到了结构化生成领域。

主旨: 本文旨在系统性地探究在大型语言模型(LLM)的后训练(SFT)阶段,多语言数据的混合比例、模型规模以及任务类型之间的相互作用。文章试图解答增加语言覆盖率是否会引发“多语言诅咒”,以及如何通过语言多样性来最大化模型的跨语言泛化能力和主语言(英语)性能。

创新:

  • 严格控制变量的平行数据设计:为了剥离“数据总量增加”对模型性能的干扰,文章使用了完全平行的多语言翻译数据,确保不同语言混合比例下,每个语言贡献的数据条数绝对一致,纯粹评估“语言多样性”的影响。
  • 任务领域的创新扩展:除了传统的数学推理(符号推理)任务,文章创新性地引入了API调用(结构化生成)任务,并为此专门构建并开源了多语言工具调用数据集mAPICall-Bank。

贡献:

  • 详尽的实证研究图谱:通过在Qwen-3和Gemma-3两个模型家族(0.6B到8B)上进行220次受控微调实验,系统绘制了语言覆盖度如何影响模型性能的全景图。
  • 推翻“英语中心论”:用坚实的数据证明了纯英语微调的局限性,证实了哪怕引入极少量的外语也能对英语主干能力产生“反哺”作用。
  • 验证了多样性驱动的零样本能力:证实了只要训练集具备足够的语言多样性,模型就能学到任务的底层逻辑表示,从而在未见过的语言上实现媲美甚至超越直接监督学习的零样本表现。

提升:

  • 英语本体性能的提升:相比于纯英语后训练,加入单一外语(双语后训练)使英语的API调用性能中位数提升了0.88%,数学推理性能提升了3.4%。
  • 跨语言迁移效果显著:在包含直接暴露的目标语言时,双语训练相比纯英语训练在API调用上带来9.27%的提升,数学推理提升8.4%(胜率达87.5%)。
  • 高资源语言的零样本对齐:在包含6到9种语言的高多样性配置下,高资源语言的零样本跨语言表现100%持平或显著超越了低多样性下的双语直接训练效果。

不足:

  • 语言覆盖和模型规模的上限:研究仅覆盖了11种语言,且最大模型为8B参数。这种基于翻译的平行数据多样性在处理全球上千种长尾语言,或在70B及以上超大模型上的扩展法则(Scaling Laws)仍有待验证。
  • 翻译伪影(Translationese)隐患:由于多语言数据集(如mAPICall-Bank)是使用最先进的LLM从英语翻译而来的,数据中可能不可避免地包含“翻译腔”或结构同质化,未能完全反映原生、自然的多语言分布对后训练的真实影响。

心得:

  • 对“英语保本论”的认知颠覆:工业界在SFT阶段常有一种保守策略,即为了防止模型“变笨”或破坏逻辑推理能力,倾向于使用极高比例甚至纯英文的高质量语料。但本文深刻且反直觉地指出,多语言数据不是“杂质”,而是“催化剂”——多语言的句法和词汇变体能迫使模型学到更深层的任务抽象,从而反过来增强英语的表现。
  • “语言多样性”等价于“泛化能力”:文章揭示了一个极其迷人的现象:当你教模型用4种、6种甚至9种语言做同一件事时,模型就不再是在记忆特定语言的映射,而是在进行真正的“概念对齐”。这种多样性带来的零样本(Zero-shot)跨语言能力,甚至能打败专门为某种语言定制的“开小灶(双语直接训练)”,这是极其符合直觉的“涌现”特征。
  • “多语言诅咒”的破除与重定义:早期的预训练研究常警告“多语言诅咒(因容量有限导致多语言争夺参数空间)”。但这篇论文表明,在后训练阶段,只要模型参数量达到实用的底线(  1B),这种诅咒在大多数任务中就是伪命题。只有在极小模型(0.6B)处理高度严苛格式(API JSON生成)时,容量瓶颈才会显现。这为后续开源模型的国际化微调扫清了理论障碍。

一句话总结:
本文通过220次严谨的受控微调实验,反直觉地揭示了“仅用英语进行LLM后训练是次优的”,证明在1B+模型中引入多语言平行数据不仅不会触发“多语言诅咒”削弱主语言,反而能显著反哺提升英语本体的推理与结构化生成性能,并通过语言多样性激发出足以媲美定向训练的强大零样本跨语言泛化能力。

Despite the widespread multilingual deployment of large language models, post-training pipelines remain predominantly English-centric, contributing to performance disparities across languages. We present a systematic, controlled study of the interplay between training language coverage, model scale, and task domain, based on 220 supervised fine-tuning runs on parallel translated multilingual data mixtures spanning mathematical reasoning and API calling tasks, with models up to 8B parameters. We find that increasing language coverage during post-training is largely beneficial across tasks and model scales, with low-resource languages benefiting the most and high-resource languages plateauing rather than degrading. Even minimal multilinguality helps: incorporating a single non-English language improves both English performance and cross-lingual generalization, making English-only post-training largely suboptimal. Moreover, at sufficient language diversity, zero-shot cross-lingual transfer can match or exceed the effects of direct language inclusion in a low-diversity setting, although gains remain limited for typologically distant, low-resource languages.

https://arxiv.org/abs/2604.13286


4、[CL] Lossless Prompt Compression via Dictionary-Encoding and In-Context Learning: Enabling Cost-Effective LLM Analysis of Repetitive Data

A R d Campos, D Lee, I Kissos, P Paritosh
[Amazon.com]

基于字典编码与上下文学习的无损提示词压缩:助力 LLM 实现低成本、高效率的重复数据分析

要点:

  • 挑战了“大模型处理压缩数据必须依赖微调或专门架构更改”的传统认知。证明了LLM完全可以通过零样本的“上下文学习”来准确理解和解释字典编码(Dictionary-Encoded)的压缩文本。
  • 引入了一种免训练的无损提示词压缩策略:将重复的文本子序列替换为元标记(Meta-tokens,例如 `<M1- 提出了一种极其具有实践价值的“Token节省优化准则”,从数学上保证:只有当替换所节省的Token数量大于引入元标记和字典所带来的额外Token开销时,才执行压缩,确保绝对的成本降低。
  • 揭示了一个反直觉的发现:压缩强度(压缩率)不会降低LLM的重建/理解质量。回归分析表明,压缩率对性能指标变化的解释度不到2%。这意味着LLM将字典解码视为一种稳定的确定性符号替换任务,不受压缩程度深浅的影响。
  • 发现了LLM理解压缩符号的边界条件:这种字典编码在夹杂自然语言的重复数据(如Apache、Hadoop的标准系统日志)上大放异彩,但在缺乏上下文、密集的纯字母数字序列(如Thunderbird、HPC日志)上表现挣扎。这表明LLM在解码压缩符号时,依然高度依赖周围的“语义锚点(Semantic Anchors)”。
  • 在高度重复的数据分析任务中实现了巨大的API成本削减(减少了60%–80%的Token),且完全没有牺牲信息保真度,也无需部署或微调本地模型。

主旨: 本文旨在解决利用商业API大语言模型(如Claude 3.7)分析高度重复性数据(如系统日志)时面临的Token成本高昂和上下文窗口受限的问题。文章提出了一种基于“字典编码”和“上下文学习”的无损提示词压缩方法,让LLM直接在压缩状态下读取并理解数据,从而实现经济高效的大规模数据分析。

创新:

  • 零微调的上下文解码(Zero-shot In-context Decoding):突破了以往无损压缩必须微调模型(让模型认识压缩Token)的限制,直接利用现代大模型强大的指令遵循和上下文学习能力,通过System Prompt挂载字典实现“即插即用”的解压缩与分析。
  • 层次化压缩与Token阈值控制(Hierarchical Algorithm with Token-savings Constraint):设计了一种自上而下寻找长重复序列的算法,并引入了严格的成本校验公式,确保字典带来的额外负担永远不会反噬压缩带来的Token收益。
  • 基于Batch级别的动态字典构建:不同于全局静态字典,该方法针对每次请求的Batch数据动态生成专属字典,确保上下文窗口中不包含无用的字典条目,实现了压缩率的最大化。

贡献:

  • 实证了LLM的符号代换能力:通过大规模的解压缩代理任务,证明了LLM可以作为高精度的确定性字典解码器。
  • 开源了一套生产可用的压缩算法:提供了一种可直接应用于现有API LLM(如OpenAI, Anthropic)架构的提示词压缩方案。
  • 打破了压缩率与性能的权衡悖论:用详实的数据证明了在无损字典编码的范式下,只要保留了语义锚点,极高的压缩率(80%)并不等同于信息丢失或理解能力的下降。

提升:

  • Token成本缩减(Compression Ratio):在常规系统日志数据集(如Apache, Hadoop, Linux)上,Token消耗减少了60%到80%。
  • 极高的信息还原与理解保真度:在基于模板的压缩评估中,精确匹配率(Exact Match)超过 0.99;在算法级压缩评估中,Levenshtein编辑距离相似度平均保持在 0.91 以上。

不足:

  • 评估任务的间接性(Proxy Task Limitation):论文使用“让LLM解压缩还原文本”作为评估其“理解能力”的代理任务。虽然能还原大概率代表能理解,但还原本身是一个生成式任务,模型可能会因为生成疲劳犯错,这可能低估了模型直接在压缩态下做分析(如异常检测)的真实能力;同时,也缺乏直接在下游分析任务上的效果对比。
  • 对无语义密集序列的局限性:面对缺乏自然语言包围的纯数字/ID序列(如Thunderbird日志中的纯节点ID列表),模型在还原时会因为缺乏上下文线索而产生严重幻觉或混淆。
  • 黑盒特性的限制:由于使用的是API模型,无法深入探究Transformer内部的注意力机制是如何将Prompt中的字典映射到上下文中的元标记上的。

心得:

  • LLM不仅是概率机,更是确定性执行器:我们习惯将大模型视为基于概率的“文字接龙”机器,但本文极其精彩地展示了,只要给足指令和映射表,大模型完全可以像传统的CPU执行解压缩算法一样,进行严谨、确定性的符号代换(Symbol Substitution)。这极大拓宽了我们对LLM能力的认知边界。
  • 反常识的“压缩无关性”:传统的有损压缩(如LLMLingua剔除不重要词汇)中,压缩率越高,模型表现越差,存在明显的Trade-off。但本文利用无损字典编码,发现压缩强度对准确率的影响不足2%!只要字典是无损的,大模型处理1个代换符号和处理1000个代换符号的准确度是一样的。
  • “语义锚点”的本质:该方法在Thunderbird(密集的机器ID流水)上的失败非常具有启发性。它提醒我们,即使LLM在做“机械”的符号代换,它的底层机制仍然是语言模型——它需要依赖周围的英文单词(如“Progress of TaskAttempt...”)作为句法结构的“抓手(Anchor)”来定位和还原变量。如果没有这些自然语言的抓手,仅靠纯符号排列,它的注意力机制就会迷失。

一句话总结: 本文通过巧妙结合“字典编码算法”与大模型的“上下文学习”能力,提出了一种无需微调的无损提示词压缩方案,在保持极高分析保真度的同时,成功将大模型处理重复性数据(如系统日志)的Token成本削减了60%至80%。

In-context learning has established itself as an important learning paradigm for Large Language Models (LLMs). In this paper, we demonstrate that LLMs can learn encoding keys in-context and perform analysis directly on encoded representations. This finding enables lossless prompt compression via dictionary encoding without model fine-tuning: frequently occurring subsequences are replaced with compact meta-tokens, and when provided with the compression dictionary in the system prompt, LLMs correctly interpret these meta-tokens during analysis, producing outputs equivalent to those from uncompressed inputs. We present a compression algorithm that identifies repetitive patterns at multiple length scales, incorporating a token-savings optimization criterion that ensures compression reduces costs by preventing dictionary overhead from exceeding savings. The algorithm achieves compression ratios up to 80% depending on dataset characteristics. To validate that LLM analytical accuracy is preserved under compression, we use decompression as a proxy task with unambiguous ground truth. Evaluation on the LogHub 2.0 benchmark using Claude 3.7 Sonnet demonstrates exact match rates exceeding 0.99 for template-based compression and average Levenshtein similarity scores above 0.91 for algorithmic compression, even at compression ratios of 60%–80%. Additionally, compression ratio explains less than 2% of variance in similarity metrics, indicating that decompression quality depends on dataset characteristics rather than compression intensity. This training-free approach works with API-based LLMs, directly addressing fundamental deployment constraints — token limits and API costs — and enabling cost-effective analysis of large-scale repetitive datasets, even as data patterns evolve over time.

https://arxiv.org/abs/2604.13066


5、[LG] Beyond State Consistency: Behavior Consistency in Text-Based World Models

Y Huang, G Chen, J Yao, L Wang…
[Microsoft]

超越状态一致性:基于文本的世界模型中的行为一致性

要点:

  • 指出了当前文本世界模型(WM)中一个致命缺陷——“度量倒置(Metric Inversion)”:传统的表面相似度指标(如Exact Match或BERTScore)会给那些表面相似但丢失了决策关键元素(如目标商品)的状态打高分,反而会惩罚那些改变了无关文本但保留了核心功能元素的状态。
  • 提出了一种范式转变:从“状态一致性(模仿环境文本)”转向“功能/行为一致性(保持下游智能体决策分布不变)”。
  • 引入了行为一致性奖励(BehR),这是一个易于计算且信息熵极高的代理指标。BehR不比较文本,而是使用一个冻结的“参考智能体(Reference Agent)”,计算在WM预测状态和真实状态下,某个已记录的离线动作的对数似然(Log-likelihood)差异。
  • 将BehR与组相对策略优化(GRPO)结合,将世界模型的训练从监督模仿学习(SFT)转向基于强化学习的行为保持。
  • 使用成对一致性比率(CRpw)作为任务级评估指标,衡量在真实世界中成功的轨迹,在世界模型中模拟时依然保持成功的比例。
  • 反直觉地证明了:优化动作似然差异(BehR)非但没有破坏单步预测的精确匹配度(EM),反而在多数设置下保持甚至提升了这一传统文本指标。
  • 揭示了标准SFT训练的世界模型在评估弱智能体时存在极高的“假阳性”率(即世界模型会产生幻觉,让智能体轻易成功)。BehR-WM大幅缩小了这种校准偏差(例如在TextWorld上将弱智能体的假阳性率从42.5%降至9.5%)。

主旨: 本文旨在解决文本世界模型(Text-Based World Models)在训练和评估时过度依赖文本表面相似度,导致无法真实反映下游智能体行为的问题。为此,论文提出了一种基于“行为一致性”的训练新范式,通过引入代理奖励机制(BehR)和强化学习(GRPO),使世界模型生成的状态能够诱导智能体做出与在真实环境中相同的动作决策,从而提升世界模型作为离线评估器和规划模拟器的可靠性。

创新:

  • 概念创新(发现度量倒置):精确捕捉并量化了“看似相似的文本环境可能导致完全不同的决策”这一痛点,打破了长期以来将语言模型生成质量等同于世界模型模拟质量的思维定势。
  • 目标函数创新(BehR):在无法获取黑盒智能体完整动作分布的情况下,创造性地引入了一个冻结的外部大模型(Reference Agent)作为“探针”,利用离线日志中的单一真实动作(Logged next action)的概率变化来构建稠密的标量奖励信号。
  • 训练范式创新:抛弃了纯监督微调(SFT)的词表概率拟合,转而采用无Critic网络的强化学习算法(GRPO)结合BehR奖励,实现了模型在生成阶段的自我博弈与行为对齐。

贡献:

  • 提出了一种全新的文本世界模型训练框架(Behavior Consistency Training)。
  • 设计了一个易于计算的步级别奖励函数(BehR)和一个任务级别的评估指标(CRpw)。
  • 提供了详实的实证证据,证明基于行为一致性的世界模型能有效降低离线评估的“假阳性(幻觉成功)”现象,并在前瞻规划(Lookahead Planning)中展现出潜力。

提升:

  • 长期对齐能力提升:在WebShop环境中,使Qwen3-8B智能体的成对一致性比率(CRpw)从0.345显著提升至0.483。
  • 评估校准度提升(降低假阳性):在离线评估弱智能体时,将WM幻觉导致的“假阳性成功率”大幅降低(如在TextWorld中从42.5%骤降至9.5%),使得WM的评估结果更贴近真实环境。
  • 单步预测质量保持:在优化行为反馈的同时,在4个测试设置中的3个里,保持或提升了单步精确匹配(Exact Match)的准确率。

不足:

  • 依赖单一的冻结参考智能体:BehR的计算高度依赖于选定的Qwen3-8B作为裁判。如果下游测试的智能体与裁判模型(Reference Agent)存在家族偏好差异,行为一致性的迁移效果可能会打折扣。
  • 单一动作代理的局限性:BehR仅通过最大化“单一被记录动作”的概率来近似整个动作分布。当面临多个合理动作(即需要保持相对排序而非单一最高概率)时,该代理奖励可能失效。
  • 接近天花板时的收益有限:在结构化较强或智能体极强(如GPT-5 + TextWorld)的场景下,基线SFT模型已经表现极好,BehR带来的增益边际效应递减。

心得:

  • “看起来像”不等于“作用相同”——打破AIGC的表面陷阱:在生成式AI中,我们极易陷入“文本/图像重建质量高即模型好”的误区。本文揭示的“度量倒置”现象给了我们深刻的启发:对于任何交互式系统,决定状态质量的不是像素或Token级别的重叠度,而是它提供的可供性(Affordance)。丢掉一个无关商品和丢掉一个核心购买按钮,在NLP指标下前者惩罚更大,但在决策系统中后者是致命的。
  • 把大模型用作“概率探针(Probability Probe)”而非单纯的文本裁判:当前流行的“LLM-as-a-Judge”通常是让模型输出一段文字评价或打个离散的分数。本文的精妙之处在于,它直接提取冻结模型的底层“Log-likelihood(对数似然)”作为连续的梯度/奖励信号。这种基于底层概率的距离计算,比让大模型做文字评价要稳定、稠密且数学上更具可解释性。
  • 世界模型的“谄媚(Sycophancy)”与评估危机:文章发现传统的SFT世界模型在评估弱智能体时会有极高的“假阳性”。这本质上是因为世界模型在预测下一步时,容易顺着智能体的错误动作“脑补”出一个成功的状态(即过拟合了训练数据中的成功轨迹)。这警示我们,不经过行为对齐(Behavioral Alignment)的模拟器会成为“老好人”,在自动评估(Auto-Eval)场景中给出虚高的成绩,掩盖真实风险。

一句话总结: 本文跳出了文本世界模型传统“拼拼写、比相似”的表面拟合怪圈,创新性地提出利用冻结的大模型作为探针,通过强化学习(GRPO)优化环境对智能体决策的“行为一致性(BehR)”,大幅削减了世界模型在离线评估中的幻觉假阳性,为构建真正可靠的交互式AI模拟器确立了新的范式。

World models have been emerging as critical components for assessing the consequences of actions generated by interactive agents in online planning and offline evaluation. In textbased environments, world models are typically evaluated and trained with single-step metrics such as Exact Match, aiming to improve the similarity between predicted and real-world states, but such metrics have been shown to be insufficient for capturing actual agent behavior. To address this issue, we introduce a new behavior-aligned training paradigm aimed at improving the functional consistency between the world model and the real environment. This paradigm focuses on optimizing a tractable step-level metric named Behavior Consistency Reward (BehR), which measures how much the likelihood of a logged next action changes between the real state and the world-model-predicted state under a frozen Reference Agent. Experiments on WebShop and TextWorld show that BehR-based training improves long-term alignment in several settings, with the clearest gains in WebShop and less movement in near-ceiling regimes, while preserving or improving single-step prediction quality in three of four settings. World models trained with BehR also achieve lower false positives in offline surrogate evaluation and show modest but encouraging gains in inferencetime lookahead planning.

https://arxiv.org/abs/2604.13824


基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-04-19 18:06:33 HTTP/1.1 GET : https://www.yeyulingfeng.com/a/539668.html
  2. 运行时间 : 0.119670s [ 吞吐率:8.36req/s ] 内存消耗:4,767.86kb 文件加载:145
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=75c9e6cf39a04203ff1de0e8dba6fd8a
  1. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/autoload_static.php ( 6.05 KB )
  7. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/ralouphie/getallheaders/src/getallheaders.php ( 1.60 KB )
  10. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  11. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  12. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  13. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  14. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  15. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  16. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  17. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  18. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  19. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/guzzlehttp/guzzle/src/functions_include.php ( 0.16 KB )
  21. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/guzzlehttp/guzzle/src/functions.php ( 5.54 KB )
  22. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  23. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  24. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  25. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/provider.php ( 0.19 KB )
  26. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  27. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  28. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  29. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/common.php ( 0.03 KB )
  30. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  32. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/alipay.php ( 3.59 KB )
  33. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  34. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/app.php ( 0.95 KB )
  35. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/cache.php ( 0.78 KB )
  36. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/console.php ( 0.23 KB )
  37. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/cookie.php ( 0.56 KB )
  38. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/database.php ( 2.48 KB )
  39. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/filesystem.php ( 0.61 KB )
  40. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/lang.php ( 0.91 KB )
  41. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/log.php ( 1.35 KB )
  42. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/middleware.php ( 0.19 KB )
  43. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/route.php ( 1.89 KB )
  44. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/session.php ( 0.57 KB )
  45. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/trace.php ( 0.34 KB )
  46. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/view.php ( 0.82 KB )
  47. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/event.php ( 0.25 KB )
  48. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  49. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/service.php ( 0.13 KB )
  50. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/AppService.php ( 0.26 KB )
  51. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  52. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  53. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  54. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  55. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  56. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/services.php ( 0.14 KB )
  57. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  58. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  59. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  60. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  61. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  62. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  63. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  64. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  65. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  66. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  67. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  68. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  69. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  70. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  71. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  72. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  73. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  74. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  75. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  76. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  77. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  78. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  79. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  80. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  81. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  82. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  83. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  84. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  85. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  86. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  87. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/Request.php ( 0.09 KB )
  88. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  89. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/middleware.php ( 0.25 KB )
  90. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  91. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  92. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  93. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  94. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  95. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  96. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  97. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  98. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  99. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  100. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  101. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  102. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  103. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/route/app.php ( 3.94 KB )
  104. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  105. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  106. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/controller/Index.php ( 9.87 KB )
  108. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/BaseController.php ( 2.05 KB )
  109. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  110. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  111. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  112. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  113. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  114. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  115. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  116. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  117. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  118. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  119. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  120. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  121. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  122. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  123. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  124. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  125. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  126. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  127. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  128. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  129. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  130. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  131. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  132. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  133. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  134. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  135. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/controller/Es.php ( 3.30 KB )
  136. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  137. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  138. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  139. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  140. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  141. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  142. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  143. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  144. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/runtime/temp/c935550e3e8a3a4c27dd94e439343fdf.php ( 31.80 KB )
  145. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.000989s ] mysql:host=127.0.0.1;port=3306;dbname=wenku;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.001651s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000829s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000743s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.001361s ]
  6. SELECT * FROM `set` [ RunTime:0.000639s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.001484s ]
  8. SELECT * FROM `article` WHERE `id` = 539668 LIMIT 1 [ RunTime:0.001405s ]
  9. UPDATE `article` SET `lasttime` = 1776593193 WHERE `id` = 539668 [ RunTime:0.006469s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 64 LIMIT 1 [ RunTime:0.000704s ]
  11. SELECT * FROM `article` WHERE `id` < 539668 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.001103s ]
  12. SELECT * FROM `article` WHERE `id` > 539668 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.003935s ]
  13. SELECT * FROM `article` WHERE `id` < 539668 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.002225s ]
  14. SELECT * FROM `article` WHERE `id` < 539668 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.002443s ]
  15. SELECT * FROM `article` WHERE `id` < 539668 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.002030s ]
0.121326s