AAAI 2026 | 把大模型装进口袋:PocketLLM提出元网络压缩范式,实现10+倍极限无损压缩
随着大语言模型(LLM)参数量迈向千亿量级,如何在保持模型性能的同时,将其塞进手机、端侧设备等资源受限的环境,已成为AI落地“最后一公里”的核心挑战。传统的量化与剪枝技术在跨越4-bit阈值后往往面临严重的精度崩塌。近日,来自AAAI 2026的入选论文《PocketLLM》提出了一种基于元网络(Meta Networks)的极限压缩方案,通过在离散隐空间中重构权重,成功在10-16 倍压缩比下实现了几乎无损的性能表现。