赞
踩
今天教大家本地部署Ollama大语言模型,并接入ComfyUI中,让你的ComfyUI变得更智能。
0****1
介绍
之前ComfyUI很多插件接入LLM大模型都得单独配置,很麻烦,今天给大家介绍一个通用的插件comfyui-ollama,再结合Ollama本地安装,让你想用什么大模型都行,从此解决提示词润色问题。
今天内容比较干,主要分三块进行:
Ollama本地安装
提示词润色方案
图片反推提示词
02
安装介绍
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。