论文地址:https://arxiv.org/abs/2106.09685
作者:Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen
引言:大模型时代的 “微调之困” 与参数高效的曙光#
大型预训练语言模型(LLMs)如 GPT 系列、BERT 及其变体,无疑已经成为自然语言处理(NLP)乃至整个人工智能领域的基石。它们凭借海量的参数和在巨量数据上的预训练,展现出惊人的通用能力。然而,“大” 也带来了新的挑战:当我们需要将这些通用大模型适应到特定的下游任务或领域时,传统的 全量微调(Full Fine-tuning) 方法 —— 即更新模型的所有参数 —— 变得异常昂贵。这不仅需要巨大的计算资源(GPU 集群、长时间训练),还会为每个任务都生成一个完整的大模型副本,导致存储成本激增,对于需要同时服务多个定制化模型的场景尤其不友好。
在这样的背景下, 参数高效微调(Parameter-Efficient Fine-tuning, PEFT) 技术应运而生,旨在以最小的代价(可训练参数量、计算资源、存储空间)实现大模型对新任务的有效适应。在众多 PEFT 方法中,由微软研究员提出的 LoRA(Low-Rank Adaptation of Large Language Models) 以其独特的构思、出色的性能和几乎无额外推理延迟的特性,迅速成为该领域的热门技术。
本文将深入探索 LoRA 的核心思想:
- LoRA 是如何巧妙地 “冻结” 大部分参数,仅通过少量可训练参数实现高效微调的?
- 其背后的核心假设 ——“权重更新的低秩性”—— 是如何被提出的?
- LoRA 与其他参数高效微调方法(如 Adapter)相比,有何独特优势?
- 它在实际应用中表现如何,又为我们带来了哪些启发?
微调的痛点:全量更新的 “不能承受之重”#
在 LoRA 出现之前,研究者们已经尝试了多种方法来降低大模型微调的成本:
- Adapter Tuning(适配器微调):在预训练模型的各层之间插入小型的、可训练的 “适配器” 模块(通常是两层 MLP)。微调时只更新这些适配器模块的参数,而主体模型参数保持不变。虽然 Adapter 显著减少了可训练参数,但它引入了额外的网络层,不可避免地增加了推理时的计算延迟,尤其是在小批量、短序列的场景下。此外,Adapter 的插入位置和内部结构也需要精心设计。
- Prefix-Tuning(前缀微调):固定预训练模型,为模型的每一层或注意力机制添加一小段可训练的 “前缀” 向量序列作为上下文。这种方法也减少了可训练参数,但可能会降低模型的可用序列长度,并且其性能有时难以匹敌全量微调。
- BitFit(偏置微调):一种更为极致的方法,只微调模型中的偏置(bias)参数,或者极少数特定参数。虽然参数效率极高,但其表达能力受限,通常性能不如其他方法。
这些方法都在一定程度上缓解了全量微调的压力,但往往伴随着性能损失、推理延迟增加或模型结构受限等代价。研究者们期待一种既能大幅减少可训练参数,又不牺牲模型原有性能和推理效率的更优解决方案。
LoRA 核心方法论:洞察权重更新的 “低秩本质”#
LoRA 的提出,基于一个深刻的洞察和核心假设:预训练语言模型在适应新任务时,其权重的变化量(记为 )具有低的 “内在秩”(low "intrinsic rank")。
换句话说,尽管预训练模型 本身是高秩的(拥有复杂的、全维度的知识表示),但在针对特定下游任务进行微调时,我们为了适应这个新任务而需要对 进行的调整 ,其信息量其实可以被一个远低于原始维度的低秩空间所表示。
基于这一核心假设,LoRA 的技术路径清晰而优雅:
-
冻结预训练权重:在微调过程中,原始预训练模型的权重 (例如 Transformer 中的查询、键、值或输出等权重矩阵) 完全保持不变,不参与梯度更新。
-
注入低秩适应模块:对于模型中选定的需要进行适应的权重矩阵 ,LoRA 在其旁边并行地注入两个小型的、可训练的 “低秩分解” 矩阵: 和 。这里的 就是 LoRA 模块的秩(rank),它是一个远小于 和 的超参数(例如, 可以是 1, 2, 4, 8 等,而 通常是几千)。
-
低秩更新的表示:原始权重的更新量 现在就被这两个低秩矩阵的乘积来近似表示,即 。
-
修改后的前向传播:当模型进行前向传播时,对于一个输入 ,经过 LoRA 修改的层的输出 就变成了:
在实际应用中,通常还会对 乘以一个缩放因子 (其中 是一个可调超参数,通常设为与 相同或固定值如 1,以稳定训练),所以更完整的形式是:
这个操作等价于在原始的 路径旁边,增加了一个由 和 构成的 “旁路” 或 “残差路径”。 -
仅训练低秩矩阵:在微调过程中,只有矩阵 和 的参数是可训练的,而 始终被冻结。由于 非常小,可训练参数的数量从 (全量微调 )急剧减少到 (训练 和 )。
-
推理时的 “零额外延迟”:这是 LoRA 一个非常吸引人的特性。在训练完成后进行推理部署时,我们可以将学习到的低秩更新 直接合并回原始权重中,形成一个新的有效权重 。这样,在推理时,模型的前向传播路径与原始的预训练模型完全一样,不引入任何额外的计算层或参数,从而实现了零额外的推理延迟。这一点与 Adapter 等方法形成了鲜明对比。
与 SOTA 的区别与创新点总结:
- 无推理延迟:通过权重合并,LoRA 在推理时与原始模型具有相同的结构和速度。
- 极高的参数效率:可训练参数量远少于全量微调,也常少于某些 Adapter 变体。
- 新的理论视角:基于 “权重更新低秩性” 的假设,为参数高效微调提供了简洁而有效的数学表达。
- 易于实现和切换:由于 和 是独立的模块,可以为多个任务分别训练不同的 LoRA 模块,并在推理时根据需要加载和合并,方便任务切换和模型管理。
实验验证:LoRA 的威力与洞察#
LoRA 的提出者们通过在多种模型(包括 RoBERTa, DeBERTa, GPT-2, 乃至拥有 1750 亿参数的 GPT-3)和广泛的 NLP 任务(如 GLUE 基准、文本生成 E2E NLG、摘要 SAMSum 等)上进行了详尽的实验,有力地证明了其有效性:
- 性能与全量微调相当甚至更优:实验结果显示,LoRA 在可训练参数量锐减的情况下(例如,在 GPT-3 175B 模型上,可训练参数减少了高达 10000 倍,从 175B 减少到约 18M),其在下游任务上的表现与全量微调的模型相当,有时甚至略有超出。同时,GPU 显存占用也显著降低(GPT-3 上降低约 3 倍)。
- 无额外推理延迟的承诺兑现:与 Adapter 在小批量、短序列场景下会引入显著推理延迟不同,合并权重后的 LoRA 确实不引入任何额外的推理开销。
- 小秩 的惊人效果:一个非常重要的发现是,即使使用非常小的秩 (例如 ),LoRA 也能够在许多任务上取得与全量微调相近的优异性能。这强有力地支持了其核心假设 —— 即模型适应下游任务时,权重更新确实具有低的 “内在秩”。
- 参数预算的分配策略:实验还表明,当总的可训练参数预算有限时,将这个预算分配给模型中更多的权重矩阵(例如,同时对 Transformer 中的都应用 LoRA 模块,每个使用较小的 )通常比仅仅增大单一权重矩阵(如只对应用 LoRA)的秩 效果更好。这意味着广泛但 “浅层”(小秩)的适应可能比局部但 “深层”(大秩)的适应更有效。
这些实验结果不仅验证了 LoRA 作为一种参数高效微调方法的实用性和高效性,也为其背后的 “低秩适应” 理论提供了坚实的经验支撑。
LoRA 的影响、局限与未来展望#
LoRA 的出现,对大型语言模型的微调和应用生态产生了深远的影响:
-
潜在影响与应用价值:
- 大幅降低大模型微调和部署门槛:使得更多资源有限的研究者和开发者能够参与到大模型的定制化应用中。
- 推动个性化和多任务模型的高效实现:可以为每个用户或每个任务训练一个轻量级的 LoRA 模块,实现大规模个性化服务,或者在单个基础模型上通过加载不同 LoRA 模块高效支持多任务。
- 启发新的参数高效学习范式:其核心思想为后续的 PEFT 方法提供了重要的借鉴。
-
主要局限性:
- 任务切换的合并成本:如果为了消除推理延迟而选择合并 LoRA 权重到基础模型中,那么对于需要频繁切换不同下游任务(每个任务对应不同的 LoRA 模块)的场景,每次切换都需要重新计算和加载合并后的权重,这可能不够高效。若不合并,则会像 Adapter 一样引入一定的推理延迟(尽管 LoRA 的旁路计算通常比 Adapter 的串行计算更易于优化)。
- 配置的经验性:虽然 LoRA 表现优异,但具体应该在哪些层或哪些类型的权重矩阵(如注意力权重、FFN 权重)上应用 LoRA,以及如何为不同任务选择最优的秩 和缩放因子 ,目前尚缺乏非常系统的理论指导,更多依赖经验和实验尝试。
-
值得探索的未来方向:
- LoRA 与其他 PEFT 方法的融合:探索将 LoRA 的优势与其他方法(如 Adapter、Prefix-tuning、BitFit,乃至量化、剪枝等)结合,以期达到更好的效果或覆盖更广的应用场景。
- 深入理解低秩适应的内在机制:从理论层面更深入地研究为什么权重更新具有低秩性,以及这种低秩性与任务特性、模型结构之间的关系。
- 发展更具原则性的 LoRA 配置策略:例如,研究如何根据任务难度或数据特性动态分配秩 ,或者自动确定 LoRA 应该应用于哪些层。
- 探究预训练权重本身的秩亏特性:进一步研究大型预训练模型权重矩阵本身的谱特性,可能为理解其可适应性提供更深层次的洞见。
个人思考与启发:低秩之美的洞察#
LoRA 最令人印象深刻之处,在于其核心假设 ——“权重更新具有低内在秩”—— 的深刻洞察力。它抓住了一个看似简单但至关重要的现象,并以此为基石构建了一个极为简洁而高效的解决方案。通过巧妙的低秩分解和权重合并设计,LoRA 在参数效率、训练成本、推理速度和模型性能之间取得了令人赞叹的平衡。
这启发我们:
- 关注问题的 “内在维度”:在面对复杂的模型优化或适应问题时,思考参数变化或信息流动的 “真实” 或 “有效” 维度,可能会引导我们发现更简洁、更高效的解决路径,而不是仅仅在原始高维空间中进行操作。
- 兼顾理论优雅与工程实用:LoRA 不仅有一个合理的理论假设,其 “零额外推理延迟” 的设计更是直击了许多 PEFT 方法在实际部署中的痛点,体现了对工程实用性的高度重视。
- 从理论中汲取实践智慧:过参数化模型为何能很好地泛化、迁移学习为何有效等理论问题,其背后的数学原理(如低秩结构、子空间学习等)往往能为我们设计更优的算法提供灵感。
对于研究者和开发者而言,LoRA 不仅仅是一个可以直接使用的工具,更是一个启发我们思考如何更 “聪明” 地与超大规模模型共舞的范例。它证明了,即使面对庞然大物,我们依然可以通过精巧的设计,以 “四两拨千斤” 的方式驾驭其强大的力量。