当前位置:   article > 正文

【模型参数微调】最先进的参数高效微调 (PEFT) 方法_pip peft

pip peft

简介

由于大型预训练模型的规模,微调大型预训练模型的成本通常高得令人望而却步。参数高效微调 (PEFT) 方法只需微调少量(额外)模型参数而不是所有模型参数,即可使大型预训练模型有效地适应各种下游应用。这大大降低了计算和存储成本。最近最先进的PEFT技术实现了与完全微调的模型相当的性能。

PEFT 与 Transformers 集成,可轻松进行模型训练和推理,与 Diffusers 集成,方便地管理不同的适配器,与 Accelerate 集成,用于大型模型的分布式训练和推理。

查看 PEFT 适配器 API 参考部分,了解受支持的 PEFT 方法列表,并阅读适配器、软提示和 IA3 概念指南,详细了解这些方法的工作原理。

快速入门

安装PEFT

从 pip 安装 PEFT:

pip install peft

加载和微调 

通过将基本模型和 PEFT 配置包装在 get_peft_model中,准备使用 PEFT 方法(如 LoRA)进行训练的模型。对于 bigscience/mt0-large 模型,您只训练了 0.19% 的参数!

  1. from transformers import AutoModelForSeq2SeqLM
  2. from peft import get_peft_config, get_peft_model, LoraConfig, TaskType
  3. model_name_or_path = "bigscience/mt0-large"
  4. tokenizer_name_or
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/960760
推荐阅读
相关标签
  

闽ICP备14008679号