当前位置:   article > 正文

Ollama 在本地快速启动并执行LLM【大语言模型】_ollama启动

ollama启动

1. 什么是Ollama?

Ollama makes it easy to get up and running with large language models locally.
Get up and running with Llama 2, Mistral, Gemma, and other large language models.

即在本地部署、启动并执行大语言模型
在这里插入图片描述
目前支持的平台如下:

  • macOS
  • Windows preview
  • Linux
  • Docker

1.1. SDK库

1.2. 提供的api服务

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/754844
推荐阅读
相关标签
  

闽ICP备14008679号