赞
踩
根据好几个项目的需求,多次尝试 Mixtral-8x7B-Instruct-v0.1 这个模型,确实性能不错。
怎奈自己的个人电脑在配置上确实无法驾驭 Mixtral-8x7B-Instruct-v0.1 这个 46.7B 的模型(速度太慢),今天就尝试基于甲骨文云的 GPU 实例部署一下,来应对接下来的开发。
今天部署 Mixtral-8x7B-Instruct-v0.1 这个 46.7B 的模型,使用了甲骨文云 4 个 VM.A10.2 GPU 实例,1个 VM.A10.2 有 2 个 24GB 的 A10 GPU,4个的话是 4 * 24GB * 2 = 192GB
GPU。
配置私网 CIDR 10.0.0.0/24
的 All Protocols 是开放的。
注意:生产环境请仅开放必要端口
# 20240131 时点 ray==2.9.1 vllm==0.3.0 的版本报错
# pip install -U ray ray[client] ray[default] vllm
pip install -U vllm==0.2.7 ray==2.9.0 ray[client] ray[default]
启动 head node,
ray start --disable-usage-stats --head --num-gpus 2 --include-dashboard True --dashboard-host 0.0.0.0 --dashboard-port 8265
To add another node to this Ray cluster,
ray start --disable-usage-stats --num-gpus 2 --address='<head node ip>:6379'
安装 git lfs,
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.rpm.sh | sudo bash
sudo dnf install git-lfs -y
git lfs install
这里使用了 8 个 GPU,所以设置 --tensor-parallel-size 的值是 8。
python -m vllm.entrypoints.openai.api_server --trust-remote-code --served-model-name gpt-4 --model mistralai/Mixtral-8x7B-Instruct-v0.1 --gpu-memory-utilization 1 --tensor-parallel-size 8 --port 8000
启动之后,通过 Ray Dashboard 查看 Cluster 的情况。
完结!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。