赞
踩
本文是LLM系列文章,针对《Continual Learning for Large Language Models: A Survey》的翻译。
大型语言模型(LLM)不适合频繁的重新训练,因为其庞大的规模带来了高昂的训练成本。然而,更新是必要的,以赋予LLM新的技能,并使其跟上快速发展的人类知识。本文综述了LLM持续学习的最新研究成果。由于LLM的独特性质,我们将继续学习技术归类为一种新颖的多阶段分类方案,包括持续的预训练、指令调整和对齐。我们将LLM的持续学习与较小模型中使用的更简单的自适应方法以及其他增强策略(如检索增强生成和模型编辑)进行了对比。此外,根据对基准和评价的讨论&#x
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。