Skip to content

通过 Ollama 在本地运行 AI 模型

Ollama 是一个轻量级平台,可以让你在本地机器上直接运行 deepseek-r1gemma3 等开源 AI 模型。如果你更偏向于使用图形化界面,也可以在 Open WebUI 中管理 Ollama 模型,以添加更多功能并简化交互。

本文档将介绍如何在 Olares 上设置和使用 Ollama CLI。

开始之前

请确保满足以下条件:

  • 拥有 Olares 管理员权限。

安装 Ollama

直接从应用市场安装 Ollama。

安装完成后,可以从启动台访问 Ollama 终端。

Ollama

Ollama CLI

Ollama CLI 让你可以直接管理和使用 AI 模型。以下是主要命令及其用法:

运行模型

查看 Ollama 模型库

如果不确定下载哪个模型,可以在 Ollama Library 浏览可用模型。

使用以下命令运行模型:

bash
ollama run [model]

示例:

bash
ollama run gemma3:4b

运行命令后,可以直接在 CLI 中输入问题,模型会生成回答。

完成交互后,输入:

bash
/bye

这将退出会话并返回标准终端界面。

停止模型

要停止当前运行的模型,使用以下命令:

bash
ollama stop [model]

示例:

bash
ollama stop gemma3:4b

列出模型

要查看系统中已安装的所有模型,使用:

bash
ollama list

删除模型

如果需要删除模型,可以使用以下命令:

bash
ollama rm [model]

示例:

bash
ollama rm gemma3:4b

显示模型信息

要显示模型的详细信息,使用:

bash
ollama show [model]

列出运行中的模型

要查看所有当前运行的模型,使用:

bash
ollama ps

了解更多