如何更快地生成出高质量的图像/视频一直是社区的核心追求。回顾早期的探索,研究者们主要致力于从数值分析的视角构建高效的 ODE Solver(如我们熟知的 DDIM, DPM-Solver, iPNDM),试图在数学上用更少的步数逼近真实分布。与此同时,蒸馏(Distillation) 也是立竿见影的手段。而在 FLUX/Wan 等大模型时代,缓存(Cache) 机制凭借其 免训练(Training-Free) 和 即插即用(Plug-and-Play) 的特性,迅速占据了一席之地。 当然,量化、分布式推理等手段也在百花齐放。但万变不离其宗,我们追求的终极目标始终是 效率与质量的平衡。

本文将聚焦于 缓存(Cache) 机制展开深度讨论。但我并不打算简单地罗列论文综述,而是想分享在进行相关研究时,对于这一领域评估标准与演进脉络的复盘与反思。 当我们打开一篇缓存相关的论文,最先映入眼帘的往往是两类指标:质量(Visual Quality) 与 效率(Efficiency)。 关于质量,我们有 CLIP Score, ImageReward, VBench 等常用指标,Cache 研究还会额外关注重建指标(PSNR/LPIPS)。然而,关于“效率”的定义,社区中却存在着某种“隐性的模糊”。 最常见的指标是 延迟(Latency) 和 加速比(Speedup)。这两个指标固然直观,但它们本质上是相对概念:

  • 硬件依赖性: 同样的算法,在 H100 和 4090 上,甚至在不同的负载和显存状态下,延迟差异巨大。
  • 基线的不透明: 加速比是一个极易被“基线(Baseline)”操控的相对指标。

让我们来看一个简单的算术题。假设我们的目标是生成一张质量达标的图:

  • Case A: 你的基线 Solver 设置较为冗余,使用了 50步。你的 Cache 策略通过缓存,实际只计算了 10步(跳过了 40 步)。 Speedup=50/10=5.0×
  • Case B: 你的基线 Solver 设置非常精简高效(例如 DPM-Solver),只用了 30步。你的 Cache 策略同样只计算了 10步(跳过了 20 步)。 Speedup=30/10=3.0×

乍一看,Case A (5.0x) 似乎比 Case B (3.0x) 厉害得多,是一项“重大突破”。但当我们剥离掉基线的干扰,回归到计算本质时,我们会发现:两者都需要 10 次网络推理,实际的推理延迟是几乎一样的。甚至 Case B 由于基线更强,最终画质可能反而优于 Case A。 因此,我认为衡量 Step-Level Cache 最诚实、最硬核的指标,应该是 NFE (Number of Function Evaluations),即 Denoising Network 实际完整运行的次数。这是一个绝对数值,它剥离了硬件和基线的干扰,直指计算成本的核心,同时也被ODE Solver相关研究广泛运用。

在厘清了评估指标之后,我们不妨简单回顾下 Cache 技术的发展脉络。如果我们将生成过程视为特征在时间轴上的流动与演变,那么冗余其实广泛存在于不同的粒度之中。早期的探索主要集中在模型架构内部的冗余。作为缓存机制的先行者,DeepCache (CVPR 2024) 与针对 DiT 架构的 Delta-DiT 敏锐地捕捉到了特征演化的规律:深层语义特征在相邻时间步间的变化极其缓慢,而浅层特征变化较快。基于此,我们可以选择性地跳过某些深层 Block 的计算,直接复用上一时刻的 Feature Map,从而让网络变得“更薄”。而随着 DiT 架构的普及,研究者的目光进一步聚焦到了更细粒度的 Token-Level,以 ToCa 和 DuCa 为代表。通过剪枝(Pruning)或合并(Merging)判定的冗余 Token,可以显著减少 Attention 的计算量。值得注意的是,无论是 Layer-Level 还是 Token-Level,本质上都是在单次推理内部做减法(减少 FLOPs),网络运行的总步数并没有改变,因此 NFE 在这里并不是一个适用的衡量指标。

而到了 2024 年末至 2025 年爆发的 Step-Level 研究(如 TeaCache, MagCache, LeMiCa, MeanCache),则代表了缓存机制向宏观粒度的跨越。这类方法的逻辑更加激进且直观:如果相邻时间步的整体输出变化足够小,我们为何不直接跳过整个网络的 Forward Pass?这种“步数级冗余”的挖掘,直接将推理过程变得“更短”了。而这一阶段最深刻的进化,在于决策逻辑从 “Cache 什么” (What to cache) 转向了 “何时 Cache” (When to cache)。 早期的 Step-Level 尝试往往采用朴素的 Uniform Strategy(均匀策略),机械地“每隔K步算一次”。但这种静态策略忽略了 Diffusion 模型的生成动力学是非线性的——生成初期的结构构建与末期的纹理细化,其特征变化剧烈程度截然不同。均匀跳过往往会导致关键步的质量崩塌或平滑步的算力浪费。 因此,新一代工作的核心贡献在于转向了 Heuristic Strategy(启发式策略)。这种从 Static Uniform 到 Dynamic Heuristic 的范式转移,让 NFE 的分配真正符合了生成的内在规律(Data-dependent),在同样的计算预算下实现了远超均匀策略的画质。 在这种语境下,网络实际完整运行的次数应当是衡量这一类方法效率的更合理的标准。

持续更新中…