>> hiHello!有关更多示例,请参阅examples目录。有关使用模型文件的更多信息,请参阅。_ollama文档">
赞
踩
来自Ollama GitHub项目的README.md 文档。文档中涉及的其它文档未翻译,但是对于本地部署大模型而言足够了。
开始使用大模型。
curl -fsSL https://ollama.com/install.sh | sh
官方 Ollama Docker 镜像 ollama/ollama
已在 Docker Hub 上可用.
使用 Llama 3 本地大模型:
ollama run llama3
查询 Ollama 支持的可用大模型列表 ollama.com/library
这里是一些可以下载的大模型的例子:
模型 | 参数 | 大小 | 下载 |
---|---|---|---|
Llama 3 | 8B | 4.7GB | ollama run llama3 |
Llama 3 | 70B | 40GB | ollama run llama3:70b |
Phi 3 Mini | 3.8B | 2.3GB | ollama run phi3 |
Phi 3 Medium | 14B | 7.9GB | ollama run phi3:medium |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
Mistral | 7B | 4.1GB | ollama run mistral |
Moondream 2 | 1.4B | 829MB | ollama run moondream |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
LLaVA | 7B | 4.5GB | ollama run llava |
Solar | 10.7B | 6.1GB | ollama run solar |
Note: 你需要至少8GB RAM 来运行7B 参数的模型, 16GB 来运行 13B 大模型, 32GB 来运行33B.
Ollama支持在Modelfile中导入GGUF模型:
创建一个名为 Modelfile
的文件, 使用带有要导入的模型的本地文件路径的“FROM”指令。
FROM ./vicuna-33b.Q4_0.gguf
在 Ollama 里创建模型
ollama create example -f Modelfile
运行模型
ollama run example
检查 引导 来获得关于引入模型的更多信息. (中文版不可用)
从Ollama 库下载的大模型可以用prompt 自定义. 例如, 要自定义 llama3
模型:
ollama pull llama3
创建 Modelfile
:
FROM llama3
# 将参数设置为1[越高越有创意,越低越连贯]
PARAMETER temperature 1
# 设置系统信息
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""
下一步, 创建并运行模型:
ollama create mario -f ./Modelfile
ollama run mario
>>> hi
Hello! It's your friend Mario.
有关更多示例,请参阅examples目录。有关使用模型文件的更多信息,请参阅Modelfile文档。(中文版未翻译)
ollama create
用于通过Modelfile 来创建模型.
ollama create mymodel -f ./Modelfile
ollama pull llama3
这个命令也可以用来更新本地模型。只有不同的部分会被下载。
ollama rm llama3
ollama cp llama3 my-model
要实现多行输入, 你可以用 """
包围它们:
>>> """Hello,
... world!
... """
I'm a basic program that prints the famous "Hello, world!" message to the console.
>>> What's in this image? /Users/jmorgan/Desktop/smile.png
The image features a yellow smiley face, which is likely the central focus of the picture.
$ ollama run llama3 "Summarize this file: $(cat README.md)"
Ollama is a lightweight, extensible framework for building and running language models on the local machine. It provides a simple API for creating, running, and managing models, as well as a library of pre-built models that can be easily used in a variety of applications.
ollama list
ollama serve
用于在不运行桌面应用程序的情况下启动ollama.
检查 开发者引导
随后,启动服务:
./ollama serve
最后,在一个单独的shell中,运行一个模型:
./ollama run llama3
Ollama有一个用于运行和管理模型的REST API.
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt":"Why is the sky blue?"
}'
curl http://localhost:11434/api/chat -d '{
"model": "llama3",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
检查 API documentation 得到所有终端.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。