Google 突破性压缩算法:彻底打破大模型本地部署的内存瓶颈

2026年3月26日

60

332

Google 突破性压缩算法:彻底打破大模型本地部署的内存瓶颈

在大模型推理部署过程中,KV Cache 一直是最大的内存瓶颈。随着上下文长度增加,KV Cache 体积急剧膨胀,导致显存严重不足,严重限制了长上下文任务的应用落地。虽然业界此前尝试了多种量化方案,但要么导致精度显著下降,要么引入额外的内存开销(存储量化常数),实际收益有限。

核心技术原理:极坐标变换与残差处理

Google 最新发布的 TurboQuant 算法彻底改变了这一局面。该技术实现了 3bit 量化 KV Cache,在保持零精度损失的同时还将推理速度提升 8 倍。更重要的是,这一方案无需重新训练、无需微调,可直接应用于现有的 Llama、Gemma、Qwen 等模型,真正实现了「即插即用」的部署体验。

实测性能:内存缩减与速度提升的突破

TurboQuant 的核心创新在于两个关键技术的结合。第一个是 PolarQuant(极坐标量化):传统量化方法如同用网格纸描述坐标点,每个维度都需要独立计算缩放系数,这些系数本身就会占用内存。PolarQuant 的思路是将向量先进行随机旋转,使数据分布变得集中且可预测,然后改用极坐标来描述——将「往东走3个路口、往北走4个路口」转化为「朝37度方向走5步」。由于角度分布高度集中,不再需要为每小块数据计算缩放系数,量化开销直接归零。第二个是 QJL(Johnson-Lindenstrauss 变换):在第一步压缩后仍存在微小误差,TurboQuant 仅用 1bit 进行残差纠偏,确保内积计算(注意力分数)不会偏差。这两步协同实现了接近信息论下界的压缩效果。

训练是一次性的炫技,推理才是永远的账单。TurboQuant 直接把这个账单砍了一刀。

“行业观察”

社区快速响应:多平台实现已在路上

Google 在 Gemma 和 Mistral 模型上进行了全面测试,覆盖 LongBench、Needle-in-a-Haystack、ZeroSCROLLS、RULER、L-Eval 等多个长上下文基准。测试结果显示:在 Needle-in-a-Haystack(大海捞针)任务中,TurboQuant 在所有基准上达到完美分数,同时将 KV 内存缩减至少 6 倍。在 H100 GPU 上,4-bit TurboQuant 计算注意力的速度比原始 32-bit Key 快 8 倍。这意味着同等硬件可支持 6 倍以上的并发用户,上下文长度可直接拉长 6 倍,且长上下文任务保持零精度损失。

技术发布后,社区迅速展开了复现工作。MLX 平台上已实现 TurboQuant 的 Metal kernel 优化,在 8K prompt 下解码速度达到全精度的 85-70%(54 tok/s vs 62.5 tok/s),Mac 用户即将可以在本地体验这一红利。llama.cpp 集成也已完成,在 M5 Max 128GB 实测中,TurboQuant 实现 4.6 倍压缩的同时速度比 q8_0 更快,PPL 仅增加 0.8%。此外,vLLM 集成也已在开发中,在 HP ZGX 设备上成功跑出了超过 400 万 tokens 的 KV Cache。

如有侵权,请联系删除。

Related Articles

联系我们 预约演示
小墨 AI