[LG]《AmortizedBayesianMeta-Learningfo

爱生活爱珂珂 2025-08-22 06:26:30

[LG]《Amortized Bayesian Meta-Learning for Low-Rank Adaptation of Large Language Models》L Zhang, J Snell, T L. Griffiths [Princeton University] (2025)

大语言模型(LLM)微调的挑战在于如何高效实现泛化与不确定性估计。最新研究提出Amortized Bayesian Meta-Learning for LoRA(ABMLL),实现了这两者的平衡:

• 结合低秩适配(LoRA)与贝叶斯元学习,显著降低微调大模型的计算和内存成本,突破传统元学习需保存多份模型或二阶梯度的瓶颈。

• 以LLAMA3-8B为例,ABMLL在CrossFit和UnifiedQA等多任务数据集上,提升准确率至74.8%,优于常规LoRA及Reptile方法。

• 通过引入新型全局变量先验和可调超参数(β、γ),有效平衡任务特异性参数与全局参数的拟合度,防止过拟合,提升泛化能力。

• 利用贝叶斯框架,ABMLL不仅优化性能,更提供更优的不确定性量化,降低预训练模型在新任务上的误判风险,提升模型响应的校准度。

• 适用性强,避免限制上下文长度及昂贵的二阶优化,支持大规模语言模型的高效元学习微调。

ABMLL为大语言模型的微调与泛化带来新的范式,兼顾性能与可靠性,具备广泛应用潜力。

详情阅读👉 arxiv.org/abs/2508.14285

大语言模型元学习贝叶斯方法LoRA模型泛化不确定性估计

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注