通过 Ollama 在本地运行 AI 模型
Ollama 是一个轻量级平台,可以让你在本地机器上直接运行 deepseek-r1
和 gemma3
等开源 AI 模型。如果你更偏向于使用图形化界面,也可以在 Open WebUI 中管理 Ollama 模型,以添加更多功能并简化交互。
本文档将介绍如何在 Olares 上设置和使用 Ollama CLI。
开始之前
请确保满足以下条件:
- 拥有 Olares 管理员权限。
安装 Ollama
直接从应用市场安装 Ollama。
安装完成后,可以从启动台访问 Ollama 终端。
Ollama CLI
Ollama CLI 让你可以直接管理和使用 AI 模型。以下是主要命令及其用法:
运行模型
查看 Ollama 模型库
如果不确定下载哪个模型,可以在 Ollama Library 浏览可用模型。
使用以下命令运行模型:
bash
ollama run [model]
示例:
bash
ollama run gemma3:4b
运行命令后,可以直接在 CLI 中输入问题,模型会生成回答。
完成交互后,输入:
bash
/bye
这将退出会话并返回标准终端界面。
停止模型
要停止当前运行的模型,使用以下命令:
bash
ollama stop [model]
示例:
bash
ollama stop gemma3:4b
列出模型
要查看系统中已安装的所有模型,使用:
bash
ollama list
删除模型
如果需要删除模型,可以使用以下命令:
bash
ollama rm [model]
示例:
bash
ollama rm gemma3:4b
显示模型信息
要显示模型的详细信息,使用:
bash
ollama show [model]
列出运行中的模型
要查看所有当前运行的模型,使用:
bash
ollama ps