Spaces:
Sleeping
Sleeping
A newer version of the Gradio SDK is available:
5.6.0
Ollama 安装部署与服务发布
Linux
curl -fsSL https://ollama.com/install.sh | sh
macOS
Windows 预览版
快速入门
要运行并与 Llama 3.1 进行对话:
ollama run llama3.1
模型库
Ollama 支持在 ollama.com/library 上提供的一系列模型。
以下是一些可以下载的示例模型:
模型 | 参数 | 大小 | 下载命令 |
---|---|---|---|
Llama 3.1 | 8B | 4.7GB | ollama run llama3.1 |
Llama 3.1 | 70B | 40GB | ollama run llama3.1:70b |
Llama 3.1 | 405B | 231GB | ollama run llama3.1:405b |
Phi 3 Mini | 3.8B | 2.3GB | ollama run phi3 |
Phi 3 Medium | 14B | 7.9GB | ollama run phi3:medium |
Gemma 2 | 2B | 1.6GB | ollama run gemma2:2b |
Gemma 2 | 9B | 5.5GB | ollama run gemma2 |
Gemma 2 | 27B | 16GB | ollama run gemma2:27b |
Mistral | 7B | 4.1GB | ollama run mistral |
Moondream 2 | 1.4B | 829MB | ollama run moondream |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
LLaVA | 7B | 4.5GB | ollama run llava |
Solar | 10.7B | 6.1GB | ollama run solar |
命令行工具
创建模型
ollama create
用于从 Modelfile 创建模型。
ollama create mymodel -f ./Modelfile
拉取模型
ollama pull llama3.1
此命令还可用于更新本地模型。仅会拉取差异部分。
删除模型
ollama rm llama3.1
复制模型
ollama cp llama3.1 my-model
多行输入
对于多行输入,可以使用 """
包裹文本:
>>> """Hello,
... world!
... """
这将输出一个包含“Hello, world!”消息的简单程序。
多模态模型
ollama run llava "这张图片中有什么? /Users/jmorgan/Desktop/smile.png"
图像中显示的是一个黄色的笑脸,可能是图片的中心焦点。
以参数传递提示
$ ollama run llama3.1 "总结此文件: $(cat README.md)"
Ollama 是一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。
REST API
Ollama 提供 REST API 来运行和管理模型。
生成响应
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt":"为什么天空是蓝色的?"
}'
与模型对话
curl http://localhost:11434/api/chat -d '{
"model": "llama3.1",
"messages": [
{ "role": "user", "content": "为什么天空是蓝色的?" }
]
}'
有关所有端点(Endpoint)的详细信息,请参阅 API 文档。
Docker 支持
Ollama 官方提供了 Docker 镜像 ollama/ollama
,可以在 Docker Hub 上找到。
使用 CPU 运行
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
使用 Nvidia GPU 运行
要使用 Nvidia GPU,首先需要安装 NVIDIA Container Toolkit:
# 配置仓库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
# 安装 NVIDIA Container Toolkit 包
sudo apt-get install -y nvidia-container-toolkit
# 配置 Docker 使用 Nvidia 驱动
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
启动容器:
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
使用 AMD GPU 运行
要使用 AMD GPU 运行 Ollama,可以使用 rocm
标签,并运行以下命令:
docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
本地运行模型
现在,你可以运行一个模型:
docker exec -it ollama ollama run llama3
请根据以上内容进行 Ollama 的安装和配置,使用 CLI 工具和 Docker 镜像来管理和运行各种模型。如需更多信息,请访问 Ollama GitHub 仓库。