模型微调

2 篇文章
所有标签

浏览此标签下的所有文章

深入理解大模型微调:从 LoRA 到 LoRA+ 的理论演进
周四 11月 20 2025
2260 字 · 9 分钟
DeepDive

本文深入探讨了大语言模型高效微调技术 LoRA 及其改进版 LoRA+,详细解析了低秩假设、参数初始化策略以及非对称学习率对模型性能与收敛速度的影响。

LoRA 底层理论:大模型高效微调的核心机制
周一 9月 01 2025
2797 字 · 10 分钟
DeepDive

本文深入解析 LoRA(Low-Rank Adaptation)的核心思想、数学原理、初始化策略以及 LoRA+ 的改进,是理解大模型参数高效微调技术的重要理论基础。

cover

His Smile

麗美