赞
踩
LLMs之RAG:基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用
目录
基于Ollama后端框架(配置phi3/LLaMA-3模型)结合Dify前端框架(设置知识库文件+向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用
安装 | 安装Docker和Docker Compose 参考A3、Windows11系统安装→交互式安装即可,一次性安装Docker和Docker Compose |
安装并配置Ollama | 安装并配置Ollama参考 地址:LLM之Ollama:ollama的简介、安装和使用方法、案例应用之详细攻略_ollama中文说明书-CSDN博客 地址02:https://yunyaniu.blog.csdn.net/article/details/138235781 |
安装并启动Dify | 参考——1、Dify的安装和启动 |
打开界面 | 浏览器中访问http://localhost/install并开始初始化过程,设置账号,之后用此账号登录。 |
配置模型 | 模型名称:phi3:latest |
点击知识库→创建知识库→添加PDF资料→保存并处理
创建应用→设置角色→添加知识库资料→并设置提示词→选择大语言模型→依次点击更新→发布→Start Chat即可!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。