当前位置:   article > 正文

【InternLM 实战营笔记】LMDeploy量化internlm2-chat-20b模型

internlm2-chat-20b

准备环境

拉取环境

/root/share/install_conda_env_internlm_base.sh lmdeploy
  • 1

激活环境

conda activate lmdeploy
  • 1

安装依赖库

# 解决 ModuleNotFoundError: No module named 'packaging' 问题
pip install packaging
# 使用 flash_attn 的预编译包解决安装过慢问题
pip install /root/share/wheels/flash_attn-2.4.2+cu118torch2.0cxx11abiTRUE-cp310-cp310-linux_x86_64.whl

pip install 'lmdeploy[all]==v0.2.4'
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

复制模型

cp -r /root/share/model_repos/internlm2-chat-20b/ /root/model/
  • 1

INT4 权重量化

lmdeploy lite auto_awq \
   "/root/model/internlm2-chat-20b/" \
  --calib-dataset 'ptb' \
  --calib-samples 128 \
  --calib-seqlen 2048 \
  --w-bits 4 \
  --w-group-size 128 \
  --work-dir ./quant_output 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

使用控制台和模型对话

lmdeploy chat turbomind ./quant_output --model-format awq
  • 1
声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号