赞
踩
如果您想在localhost
部署并运行开源大模型,可以试试Ollama
。本文我们将使用Ollama
部署,并通过API的方式调用大模型。
Ollama
提供了python和js两种开发包,对前端开发者挺友好的,用它!
pip install ollama
npm install ollama
聊天接口
多模态
我们可以通过 [library (ollama.com)] 查看Ollama
支持的模型清单,有gemma
、llama2
、mistral
、mixtral
等,非常的丰富。
比如我们要使用的开源模型是llama2
, 我们可以使用如下代码下载(首次)并运行模型
# 拉取模型
ollama pull llama2
# 运行模型
ollama run llama2
如果我们使用过openai
的一些接口, 那么就了解文本补全、聊天、嵌入等。ollama
提供了REST API来提供了请求接口。
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"Why is the sky blue?"
}'
curl http://localhost:11434/api/chat -d '{
"model": "mistral",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
curl http://localhost:11434/api/embeddings -d '{
"model": "all-minilm",
"prompt": "Here is an article about llamas..."
}'
我们将结合Streamlit
和Ollama
,开发一个聊天应用。
[Streamlit]是一款Web开发框架,适用于python快速完成一些大模型、数学科学计算的UI开发。
我们还会用到 [Build a ChatGPT-like App | Streamlit]代码快速构建类chatgpt应用。
# 引入streamlit UI库 import streamlit as st # 引入 ollama import ollama # 获取ollama的模型列表 model_list = ollama.list() # 设置默认模型名字为 llama2:7b-chat if "model_name" not in st.session_state: st.session_state["model_name"] = "llama2:7b-chat" # 初始化聊天信息数组 if "messages" not in st.session_state: st.session_state.messages = [] # 设置边栏 with st.sidebar: # 侧边栏的标题 st.subheader("Settings") # 下拉框 选择模型, 默认选中llama2 option = st.selectbox( 'Select a model', [model['name'] for model in model_list['models']]) st.write('You selected:', option) st.session_state["model_name"] = option # 页面标题 与llama聊天 st.title(f"Chat with {st.session_state['model_name']}") # 遍历聊天数组 for message in st.session_state.messages: # 根据角色 with st.chat_message(message["role"]): # 输出内容 st.markdown(message["content"]) if prompt := st.chat_input("What is up?"): st.session_state.messages.append({"role": "user", "content": prompt}) with st.chat_message("user"): st.markdown(prompt) with st.chat_message("assistant"): # 大模型返回后就清空输入框 message_placeholder = st.empty() full_response = "" for chunk in ollama.chat( model=st.session_state["model_name"], messages=[ {"role": m["role"], "content": m["content"]} for m in st.session_state.messages ], # 逐渐打出 stream=True, ): if 'message' in chunk and 'content' in chunk['message']: full_response += (chunk['message']['content'] or "") message_placeholder.markdown(full_response + "▌") message_placeholder.markdown(full_response) st.session_state.messages.append({"role": "assistant", "content": full_response})
ollama pull
除了llama2
, 我们再拉取下orca-mini
ollama list
streamlit run app.py
Ollama
在本地部署开源大模型,真心方便且靠谱。 我在红米老爷机上运行了, 可以。如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。