赞
踩
准备:虚拟机:centos7
安装Docker:首先,需要安装Docker,因为Ollama和MaxKB都建议基于Docker容器运行。使用以下命令安装Docker:
sudo yum install -y yum-utils device-mapper-persistent-data lvm2
sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
sudo yum install docker-ce docker-ce-cli containerd.io
sudo systemctl start docker
sudo systemctl enable docker
docker -v
vi /etc/docker/daemon.json
建议镜像源:
{
"registry-mirrors" : [
"https://docker.m.daocloud.io",
"https://dockerproxy.com",
"https://mirror.ccs.tencentyun.com"
]
}
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data --privileged=true 1panel/maxkb
受限于国内镜像站,可能无法下在maxkb镜像,可以网上找到该镜像,再上传到虚拟机中,下面是上传到/root/Downloads/中:
cd /root/Downloads/
docker load -i maxkb_latest.tar
docker images
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data --privileged=true 1panel/maxkb
docker exec -it ollama ollama list
docker exec -it ollama ollama run qwen:7b
如果不知道某个模型的执行命令,可以查看ollama网站:
https://ollama.com/library
访问http://ip:8080/ui/login,登录管理用户:admin/MaxKB@123..
Open-WebUI是另一款功能丰富、用户友好的自托管Web界面,专为大型语言模型(LLMs)设计。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker不太稳定,下载不下来的话,可以网上找到该镜像,再上传到虚拟机中。
访问链接,注册管理员。进去之后,如果ollama已经添加过模型,则“工作”板块中会自动罗列出来,否则在该页面添加模型即可。
ip:3000/auth
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。