-
LoRA: 降低大型语言模型参数,又不损失表现的轻量化微调方法
LoRA是一种轻量化微调方法,旨在降低大型语言模型的参数数量,同时保持模型性能。该方法受到2020年Aghajanyan等人的工作启发,通过对预训练模型的内在维度进行研究,提出了仅使用少量参数微调模型即可实现高性能的观点。本文介绍了LoRA的意义、大型模型的参数含义和限制,以及LoRA如何实现轻量化微调。- 485
- 0
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!