浏览此标签下的所有文章
本文深入探讨了大语言模型高效微调技术 LoRA 及其改进版 LoRA+,详细解析了低秩假设、参数初始化策略以及非对称学习率对模型性能与收敛速度的影响。
本文深入解析 LoRA(Low-Rank Adaptation)的核心思想、数学原理、初始化策略以及 LoRA+ 的改进,是理解大模型参数高效微调技术的重要理论基础。
无可用标题
麗美