赞
踩
1.git clone llama_factory到本地
2.记得安环境,在clone后
3.多显卡要设置一下
4.数据文件放在data里面,仿照模板里的格式
5.进入llama_factory微调页面
python src/webui.py
- 训练模型
- llamafactory-cli train \
- --stage pt \
- --do_train True \
- --model_name_or_path /home/models/Qwen1.5-7B \
- --preprocessing_num_workers 16 \
- --finetuning_type lora \
- --template qwen \
- --flash_attn auto \
- --dataset_dir /home/cxh/LLaMA-Factory/data \
- --dataset a1_demo \
- --cutoff_len 1024 \
- --learning_rate 5e-05 \
- --num_train_epochs 70.0 \
- --max_samples 1024 \
- --per_device_train_batch_size 2 \
- --gradient_accumulation_steps 8 \
- --lr_scheduler_type cosine \
- --max_grad_norm 1.0 \
- --logging_steps 5 \
- --save_steps 100 \
- --warmup_steps 0 \
- --optim adamw_torch \
- --packing True \
- --report_to none \
- --output_dir saves/Qwen1.5-7B/lora/train_2024-06-21-11-00-39 \
- --bf16 True \
- --plot_loss True \
- --ddp_timeout 180000000 \
- --include_num_input_tokens_seen True \
- --lora_rank 8 \
- --lora_alpha 16 \
- --lora_dropout 0 \
- --lora_target all
-
- 运行对话
- CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat --model_name_or_path /home/models/Qwen1.5-7B --adapter_name_or_path /home/cxh/LLaMA-Factory/src/saves/Qwen1.5-7B/lora/train_2024-06-21-11-37-49 --template qwen --finetuning_type lora
6.如果显存爆了,配置一下
vim ~/.bashrc
#然后在文件中加入下面这行
export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:86
#保存退出,然后运行下面的指令
source ~/.bashrc
7.llama_factory介绍:
10分钟打造你个人专属的语言大模型:LLaMA-Factory LLM Finetune_哔哩哔哩_bilibili
部分训练数据展示
- [{
- "text": "page_content='内容1111' metadata={'source': 'D:\\\\Downloads\\\\维护文档\\\\docs/2006-三体.txt'}"
- }, {
- "text": "page_content='内容2222' metadata={'source': 'D:\\\\Downloads\\\\维护文档\\\\docs/2006-三体.txt'}"
- },
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。