LoRA 底层理论:大模型高效微调的核心机制

LoRA 底层理论:大模型高效微调的核心机制

周一 9月 01 2025 DeepDive
2797 字 · 10 分钟

[迁移说明] 本文最初发布于 blog.zzw4257.cn,现已迁移并在本站进行结构化整理与增强。

相关论文

实践资源

模型微调(Fine-Tuning)?

在大模型时代,我们通常不会从零开始训练一个模型,而是利用一个在海量数据上预训练好的、能力强大的基础模型(Foundation Model),然后在一个新的、特定的任务上对其进行“再训练”,这个过程就是微调

1. 意义与直觉

想象一位在顶级厨艺学校毕业、精通各种烹饪技巧的厨师(预训练模型)。现在,一家高级餐厅想让他专门烹饪地方特色菜(下游特定任务)。他不需要从如何握刀、如何控制火候等基础开始学起,只需利用他已有的高超厨艺,学习并适应新菜系的食谱和风味即可。这个“学习适应”的过程,就是微调。它使得强大的通用模型能够高效地服务于各种具体应用。

2. 数学描述

从数学上讲,一个神经网络模型本质上是由一系列权重矩阵 WW 和偏置项组成的。预训练好的模型,其权重我们记为 W0W_0

全量微调(Full Fine-Tuning)的目标是,在新的任务数据上,更新模型的所有或大部分参数,以最小化新任务的损失函数。更新后的权重 WW 可以表示为:

W=W0+ΔWW = W_0 + \Delta W

这里的 W0W_0 是预训练权重,是“冰冻”的、不参与梯度计算的。而 ΔW\Delta W 是在微调过程中学习到的权重更新量。在全量微调中,ΔW\Delta W 的维度与 W0W_0 完全相同,这意味着对于每一个预训练参数,我们都要计算并存储它的梯度和更新。

全量微调的困境:对于拥有数百亿甚至数千亿参数的现代大模型(如GPT-3),为每一个下游任务都存储一个完整的 ΔW\Delta W 副本,将带来巨大的存储开销和计算负担。例如,为10个不同的任务微调一个175B参数的模型,就需要存储10份175B参数的副本,这在实际应用中是难以承受的。


第一部分:创新之举——LoRA (Low-Rank Adaptation)

LoRA的出现,正是为了解决全量微调的困境。它的核心洞见来自于一个关键假设。

1. 核心思想:低秩假设

LoRA的作者们假设:在模型适应新任务的过程中,权重的改变量 ΔW\Delta W 是低秩(Low-Rank)的。

这意味着,尽管 ΔW\Delta WW0W_0 维度相同,看起来非常庞大,但它内部的信息是冗余的,其内在的“秩”(intrinsic rank)非常低。因此,我们没有必要去学习一个完整的、稠密的 ΔW\Delta W 矩阵。

一个 d×kd \times k 的矩阵,如果它的秩 rr 远小于 ddkk,我们就可以通过两个更小的矩阵来近似它。具体来说,可以将 ΔW\Delta W 分解(或近似)为两个细长的矩阵的乘积:

ΔW=BA\Delta W = B \cdot A

其中,BB 是一个 d×rd \times r 的矩阵,AA 是一个 r×kr \times k 的矩阵,而秩 rmin(d,k)r \ll \min(d, k)

通过这种方式,需要学习的参数数量从 d×kd \times k 急剧下降到 d×r+r×k=r(d+k)d \times r + r \times k = r(d+k)。当 rr 很小(例如4, 8, 16)时,参数量可以减少成百上千倍。

注: 原文档中的 LoRA 低秩分解示意图(此处省略,详见论文或课程材料)

2. LoRA的实现方法

在模型微调时,LoRA将这种低秩分解思想应用到了模型的关键模块(主要是Transformer中的自注意力权重矩阵 Wq,Wk,Wv,WoW_q, W_k, W_v, W_o)上。

对于一个预训练权重为 W0W_0 的线性层,其前向传播过程为 h=W0xh = W_0 x。应用LoRA后,其前向传播变为:

h=W0x+ΔWx=W0x+BAxh = W_0 x + \Delta W x = W_0 x + B A x

关键点

  • 冻结预训练权重:在整个微调过程中,W0W_0 始终保持不变,不参与任何梯度更新。
  • 只训练A和B:只有矩阵 AABB 是可训练的参数。
  • 旁路结构BAxBAx 相当于在原始网络路径旁边增加了一个“旁路”或“残差连接”,用于学习特定任务的适应性调整。

3. LoRA的独特优势

  • 极高的参数效率:如前所述,可训练参数量大幅减少,显著降低了显存占用和存储成本。
  • 无额外的推理延迟:这是LoRA相较于其他一些高效微调方法(如Adapter)的巨大优势。在模型部署推理时,我们可以预先计算好 W=W0+BAW' = W_0 + BA。这样,WW' 就是一个和 W0W_0 维度完全相同的矩阵。推理时,前向传播变为 h=Wxh = W'x,与原始模型相比,没有任何额外的计算步骤,因此不会增加延迟。
  • 任务切换灵活:由于每个任务只对应一对小矩阵 (A, B),在部署时可以轻松地通过切换不同的 (A, B) 组合,让同一个基础模型服务于不同任务。

4. 初始化策略(重难点)

如何初始化 AABB 至关重要。LoRA论文中采用了非常巧妙的策略:

  • 矩阵A:采用随机高斯分布进行初始化。这为模型提供了开始学习的随机梯度方向,打破了对称性。
  • 矩阵B:采用全零进行初始化。

为什么这样设计? 因为当 B=0B=0 时,在训练开始的第一步(t=0t=0),ΔW=BA=0\Delta W = BA = 0。这意味着微调是从原始的预训练模型 W0W_0 精确开始的,没有任何随机扰动。这保证了训练的稳定性和一个良好的起点。随着训练的进行,BB 会逐渐从零开始 学习到有意义的值。


第二部分:精益求精——LoRA+

LoRA虽然高效,但LoRA+的作者们发现了一个可以被优化的细节:矩阵 AABB 在LoRA中共享同一个学习率,这可能不是最优的。

1. 核心思想:非对称的更新需求

LoRA+的核心洞察是:矩阵 AABB 的角色和尺度是不同的,因此它们应该使用不同的学习率进行更新。

  • 矩阵A (r×kr \times k): 它的作用是将高维的输入特征 (kk 维) 投影到 低维的秩空间 (rr 维)。
  • 矩阵B (d×rd \times r): 它的作用是将低维的秩空间特征 投影回 高维的输出空间 (dd 维)。

直观上,矩阵 BB 的更新对最终输出的影响更直接、更剧烈,因为它直接生成高维输出。而矩阵 AA 的更新效果需要通过 BB 的放大才能体现。在具有很大宽度(embedding dimension)的模型中,如果两者使用相同的学习率,会导致特征学习效率低下。

2. LoRA+ 的实现方法

LoRA+的解决方法极其简单而有效:为矩阵B设置一个远大于矩阵A的学习率。

具体来说,设矩阵 AA 的学习率为 ηA\eta_A,矩阵 BB 的学习率为 ηB\eta_B。LoRA+提出:

ηB=ληA其中λ1\eta_B = \lambda \cdot \eta_A \quad \text{其中} \quad \lambda \gg 1

在实践中,λ\lambda 通常被设置为一个固定的、较大的值(例如 24=162^4=1625=322^5=32)。这样,研究者只需像调整LoRA一样,搜索一个主学习率 ηA\eta_A 即可,而不需要进行二维的复杂搜索。

3. 梯度与优化的解释(重难点)

LoRA+论文通过一个玩具模型和严谨的尺度分析(scaling analysis)证明了其有效性。我们可以简化理解其精髓:

考虑模型输出的变化 Δh\Delta h,它由两部分贡献:一部分来自 BB 的更新(ΔB\Delta B),另一部分来自 AA 的更新(ΔA\Delta A)。

Δh(ΔB)Ax+B(ΔA)x\Delta h \approx (\Delta B)Ax + B(\Delta A)x

其中,ΔB=ηBGB\Delta B = -\eta_B G_BΔA=ηAGA\Delta A = -\eta_A G_A (GG 代表梯度)。

LoRA+的理论分析表明,为了让这两部分贡献在数值上保持“平衡”(即对模型输出的更新都起到有效作用,而不是某一方被忽略),学习率需要进行非对称的设置。

  • 当模型宽度 nn(即维度 ddkk)很大时,如果 ηA=ηB\eta_A = \eta_B,那么由 ΔA\Delta A 引起的更新项 B(ΔA)xB(\Delta A)x 在数值上会变得微不足道,导致矩阵 AA 无法被有效训练。模型仿佛只在训练 BB,这限制了特征学习的灵活性。
  • 为了实现高效的特征学习(Efficient Feature Learning),即让 AABB 都得到充分训练,需要让 ηB\eta_B 的尺度远大于 ηA\eta_A。论文推导出,最优的尺度关系为 ηB=Θ(1)\eta_B = \Theta(1)ηA=Θ(n1)\eta_A = \Theta(n^{-1})

简单来说,给B一个更大的学习率,是为了补偿其在梯度反向传播路径上的尺度效应,确保两个分解矩阵都能对最终的模型更新做出有意义的贡献,从而加速收敛并可能达到更好的性能。 LoRA+的实验结果也证实,这种简单的修改可以带来 1%-2% 的性能提升,以及高达2倍的训练加速。

总结与对比

特性全量微调 (Full Fine-Tuning)LoRALoRA+
核心思想更新所有参数以适应新任务权重更新是低秩的,可用 BABA 近似低秩矩阵 AABB 的作用不同,需要不同的更新速率
可训练参数全部模型参数,数量巨大只有小的矩阵 A,BA, B,数量极少和LoRA相同,只有小的矩阵 A,BA, B
推理延迟 (通过 W=W0+BAW' = W_0 + BA 合并) (和LoRA一样可合并)
主要超参学习率学习率 η\eta, 秩 rr主学习率 ηA\eta_A, 秩 rr, 学习率比例 λ\lambda
关键方法梯度下降更新 W0+ΔWW_0 + \Delta W冻结 W0W_0,只训练 A,BA, B在LoRA基础上,设置 ηB=ληA\eta_B = \lambda \cdot \eta_A
解决的问题-微调的巨大存储和计算成本LoRA中特征学习效率不高,训练速度和性能有待提升

结论: 从全量微调到LoRA,再到LoRA+,我们看到了一条清晰的技术演进路径。

  • LoRA 是一次范式革命,它通过巧妙的低秩假设,将大模型微调的成本降低了几个数量级,使其变得平易近人。
  • LoRA+ 则是对LoRA的深度优化,它通过对梯度动力学的更深刻理解,指出了分解矩阵的非对称性,并用一个极其简单的“不同学习率”方案,进一步榨干了模型的训练潜能,实现了更快、更好的微调。

这两种技术,特别是它们的思想,对于在资源有限的条件下利用和部署超大规模模型具有至关重要的意义。


Thanks for reading!

LoRA 底层理论:大模型高效微调的核心机制

周一 9月 01 2025 DeepDive
2797 字 · 10 分钟
cover

His Smile

麗美