My Notes


A place to document my daily learning journey and encountered bugs
  • Lora

    Post thumbnail
    Post thumbnail
    Lora LoRA (Low-Rank Adaptation) 是一种参数高效微调方法,主要目标是通过低秩矩阵分解高效地微调预训练语言模型。 核心思想: 冻结预训练模型的原始权重 WWW,通过引入低秩矩阵 AAA 和 BBB 来表示权重更新: $W′=W+ΔW,ΔW=\frac{\alpha}{r} AB$ 其中: $A \in \mathbb{R}^{d \times r}$ $B \in \mathbb{R}^{r \times d}$ r 是低秩分解的秩,通常 $r \ll d$,以减少参数量。 $\alpha$为LoRA 的缩放因子。 特点: 高效微调:只需学习两个小矩阵 A 和 B 的参数,而不需要调整整个预训练模型权重。 参数量小:相比全参数微调,LoRA 显著减少了需要调整的参数量,适合低资源场景。 通用性强:可以应用于各种预训练模型(如 Transformer)。 [Read More]
    Tags: